Na semana passada, a Anthropic apresentou o Projeto Glasswing, um modelo de IA capaz de descobrir falhas de segurança em software com uma eficácia tão alta que a empresa optou por adiar seu lançamento público. Em vez disso, eles deram acesso a gigantes como Apple, Microsoft, Google e Amazon para que corrijam os erros antes que atores maliciosos possam explorá-los. O modelo Mythos Preview, base do Glasswing, demonstrou uma capacidade sem precedentes para identificar vulnerabilidades.
Como funciona a detecção automatizada de falhas 🛡️
O Glasswing emprega técnicas de aprendizado profundo para analisar o código-fonte e os binários, identificando padrões que geralmente precedem vulnerabilidades como estouros de buffer ou injeções SQL. Diferente de ferramentas tradicionais, este modelo não se limita a assinaturas conhecidas; ele é capaz de inferir novas classes de erros. Sua taxa de acertos supera a de qualquer scanner comercial, o que levou a Anthropic a ser cautelosa. A empresa teme que, em mãos erradas, a ferramenta possa causar mais dano do que benefício.
Quando a IA encontra bugs melhor que seu chefe 😅
Agora acontece que uma inteligência artificial é mais eficaz em encontrar buracos de segurança do que a equipe de QA da sua empresa. A Anthropic, em um ato de responsabilidade pouco comum, decidiu não lançar o Glasswing ao público. Em vez disso, o presenteou para as grandes empresas de tecnologia. Qual o resultado? Apple, Microsoft e Google terão que se esforçar para corrigir suas próprias falhas antes que a IA as mostre aos hackers. Então, se seu código tem mais buracos que um queijo suíço, reze para não levar uma auditoria.