Lücke bei Vercel durch kompromittiertes KI-Tool Context.ai

21. April 2026 Veröffentlicht | Aus dem Spanischen übersetzt

Vercel, eine Web-Deployment-Plattform, meldete einen Sicherheitsvorfall. Die Ursache war die Kompromittierung eines KI-Tools eines Drittanbieters, Context.ai. Dieser unbefugte Zugang ermöglichte den Eintritt in das Google Workspace-Konto eines Mitarbeiters und in interne Systeme. Der Fall zeigt ein wachsendes Risiko: die Software- und Dienstleistungs-Lieferkette als Angriffsvektor.

Digitale Illustration einer Lieferkette mit einem gebrochenen Glied, das ein kompromittiertes KI-Logo zeigt, das Daten zu einem externen Server durchsickern lässt.

Das schwache Glied in der Kette moderner Integrationen 🔗

Der Vorfall nutzte keine direkte Schwachstelle in der Vercel-Infrastruktur aus, sondern einen verbundenen Dienst. Context.ai, vermutlich für Analysen oder Produktivität integriert, fungierte als Brücke. Dies unterstreicht eine technische Herausforderung: die Verwaltung von Berechtigungen und Zugriffstokens in Integrationen mit OAuth oder APIs von Drittanbietern. Ein Token mit übermäßigen Privilegien gewährt, einmal gestohlen, lateralen Zugriff. Die Multi-Faktor-Authentifizierung auf dem Hauptkonto milderte dies nicht ab, da der Angriff über eine bereits authentifizierte Sitzung via des kompromittierten Tools operierte.

Wir vertrauen einer KI, dass sie uns nicht hackt... und es war die KI 🤖

Die Ironie hat mehrere Ebenen. Wir integrieren KI-Tools, um effizienter und vielleicht intelligenter gegenüber Bedrohungen zu sein. Doch es stellt sich heraus, dass das Tool selbst zum Trojanischen Pferd wird. Es ist, als würde man ein Hochsicherheitsschloss installieren und der Schlüsseldienst stiehlt den Hauptschlüssel. Das schwächste Glied ist nicht mehr der Mensch, der auf einen Link klickt, sondern der automatisierte Dienst, dem wir Vertrauen delegieren. Eine Erinnerung daran, dass in der Cloud deine Sicherheit nur so stark ist wie der kleinste Anbieter, den du nutzt.