Letzte Woche stellte Anthropic das Projekt Glasswing vor, ein KI-Modell, das in der Lage ist, Sicherheitslücken in Software mit einer so hohen Effektivität zu entdecken, dass das Unternehmen sich entschied, seine öffentliche Veröffentlichung zu verschieben. Stattdessen haben sie Giganten wie Apple, Microsoft, Google und Amazon Zugang gewährt, damit diese die Fehler beheben können, bevor böswillige Akteure sie ausnutzen können. Das Mythos Preview-Modell, die Basis von Glasswing, demonstrierte eine beispiellose Fähigkeit, Schwachstellen zu identifizieren.
Wie die automatisierte Fehlererkennung funktioniert 🛡️
Glasswing verwendet Techniken des tiefen Lernens, um Quellcode und Binärdateien zu analysieren und Muster zu identifizieren, die häufig Schwachstellen wie Pufferüberläufe oder SQL-Injection vorausgehen. Im Gegensatz zu herkömmlichen Werkzeugen beschränkt sich dieses Modell nicht auf bekannte Signaturen; es ist in der Lage, neue Fehlerklassen abzuleiten. Seine Trefferquote übertrifft die jedes kommerziellen Scanners, was Anthropic zur Vorsicht veranlasst hat. Das Unternehmen befürchtet, dass das Werkzeug in den falschen Händen mehr Schaden als Nutzen anrichten könnte.
Wenn die KI Bugs besser findet als dein Chef 😅
Jetzt stellt sich heraus, dass eine künstliche Intelligenz effektiver darin ist, Sicherheitslöcher zu finden, als das QA-Team deines Unternehmens. Anthropic hat in einem seltenen Akt der Verantwortung beschlossen, Glasswing nicht öffentlich zu machen. Stattdessen haben sie es den großen Technologiekonzernen geschenkt. Das Ergebnis? Apple, Microsoft und Google müssen sich ranhalten, um ihre eigenen Fehler zu beheben, bevor die KI sie den Hackern zeigt. Also, wenn dein Code mehr Löcher hat als ein Schweizer Käse, bete, dass du keinem Audit unterzogen wirst.