LiteLLM 해킹당함: 오픈소스 AI에 악성코드와 의심스러운 인증서

2026년 03월 30일 | 스페인어에서 번역됨

오픈소스 AI 생태계는 LiteLLM에서 발생한 심각한 보안 사고 이후 신뢰 위기에 직면해 있습니다. LiteLLM은 매일 수백만 번 다운로드되는 프로젝트입니다. 공격자들은 Trivy 스캐너라는 의존성을 손상시켜 3시간 동안 배포된 버전에 악성코드를 주입했습니다. 상황은 Delve라는 스타트업이 공개적으로 감사 조작 혐의를 받은 SOC 2 및 ISO 27001 인증을 프로젝트가 보유하고 있었기 때문에 더욱 악화되었습니다. 이 사례는 시스템적 위험을 드러냅니다.

Un engranaje de IA roto con un sello de certificación agrietado superpuesto, simbolizando la vulnerabilidad de la cadena de suministro.

공격의 해부: 취약한 공급망과 공허한 보안 인증 🔍

이 공격은 두 가지 근본적인 취약점을 이용했습니다. 첫째, 공급망의 취약성: 보안 도구인 Trivy를 손상시켜 공격자들이 신뢰받는 의존성을 오염시켰습니다. 둘째, 보안 인증의 잠재적 비효과성. LiteLLM은 엄격한 통제를 감사하는 SOC 2 및 ISO 27001 인증을 표시하고 있었습니다. 그러나 발급자 Delve는 거짓 감사를 제공했다는 비난을 받고 있습니다. 이는 위험한 역설을 만들어냅니다: 사용자들은 인증된 프로젝트를 신뢰했지만, 그 감사 과정이 사기일 수 있었고, 보안은 연극에 불과했습니다.

중요한 교훈: 신뢰하고 다운로드하는 것을 넘어 ⚠️

이 사건은 커뮤니티에 행동을 촉구합니다. 프로젝트의 명성이나 인증 마크에만 의존하는 것은 부족합니다. 개발자들은 감사 출처와 엄격성을 검증해야 하며, 특히 보안 도구를 포함한 모든 의존성을 잠재적 공격 벡터로 간주해야 합니다. 책임은 적극적인 검증과 규정 준수 과정의 완전한 투명성 요구에 있으며, 보안의 연극성을 도전합니다.

오픈소스 AI 프로젝트의 보안과 신뢰를 어떻게 보장할 수 있을까요? 혁신과 협력을 억압하지 않으면서요?

(PD: 인터넷 커뮤니티를 관리하는 것은 키보드를 가진 잠 못 이루는 고양이 떼를 몰이하는 것과 같습니다...)