La semaine dernière, Anthropic a présenté le Projet Glasswing, un modèle d'IA capable de découvrir des failles de sécurité dans des logiciels avec une efficacité si élevée que l'entreprise a choisi de retarder son lancement public. Au lieu de cela, ils ont donné accès à des géants comme Apple, Microsoft, Google et Amazon pour qu'ils corrigent les erreurs avant que des acteurs malveillants puissent les exploiter. Le modèle Mythos Preview, base de Glasswing, a démontré une capacité sans précédent à identifier des vulnérabilités.
Comment fonctionne la détection automatisée des failles 🛡️
Glasswing utilise des techniques d'apprentissage profond pour analyser le code source et les binaires, identifiant des motifs qui précèdent généralement des vulnérabilités comme les débordements de tampon ou les injections SQL. Contrairement aux outils traditionnels, ce modèle ne se limite pas aux signatures connues ; il est capable d'inférer de nouvelles classes d'erreurs. Son taux de réussite dépasse celui de tout scanner commercial, ce qui a conduit Anthropic à être prudente. L'entreprise craint qu'entre de mauvaises mains, l'outil puisse causer plus de mal que de bien.
Quand l'IA trouve des bugs mieux que ton chef 😅
Il s'avère maintenant qu'une intelligence artificielle est plus efficace pour trouver des failles de sécurité que l'équipe QA de ton entreprise. Anthropic, dans un acte de responsabilité peu commun, a décidé de ne pas lancer Glasswing au public. Au lieu de cela, ils l'ont offert aux grandes entreprises technologiques. Le résultat ? Apple, Microsoft et Google vont devoir se bouger pour corriger leurs propres défauts avant que l'IA ne les montre aux hackers. Alors, si ton code a plus de trous qu'un gruyère, prie pour ne pas être soumis à un audit.