La settimana scorsa, Anthropic ha presentato il Progetto Glasswing, un modello di IA in grado di scoprire falle di sicurezza nel software con un'efficacia così elevata che l'azienda ha scelto di ritardarne il lancio pubblico. Invece, hanno concesso l'accesso a giganti come Apple, Microsoft, Google e Amazon per correggere gli errori prima che attori malintenzionati possano sfruttarli. Il modello Mythos Preview, base di Glasswing, ha dimostrato una capacità senza precedenti di identificare vulnerabilità.
Come funziona il rilevamento automatizzato dei bug 🛡️
Glasswing utilizza tecniche di apprendimento profondo per analizzare il codice sorgente e i binari, identificando modelli che spesso precedono vulnerabilità come buffer overflow o injection SQL. A differenza degli strumenti tradizionali, questo modello non si limita a firme note; è in grado di dedurre nuove classi di errori. Il suo tasso di successo supera quello di qualsiasi scanner commerciale, portando Anthropic a essere cauta. L'azienda teme che, in mani sbagliate, lo strumento possa causare più danni che benefici.
Quando l'IA trova bug meglio del tuo capo 😅
Ora risulta che un'intelligenza artificiale è più efficace nel trovare buchi di sicurezza del team di QA della tua azienda. Anthropic, in un atto di responsabilità poco comune, ha deciso di non rilasciare Glasswing al pubblico. Invece, lo ha regalato alle grandi aziende tecnologiche. Il risultato? Apple, Microsoft e Google dovranno darsi da fare per correggere i propri errori prima che l'IA li mostri agli hacker. Quindi, se il tuo codice ha più buchi di un formaggio svizzero, prega di non essere sottoposto a un audit.