Publicado el 09/04/2026, 11:25:17 | Autor: 3dpoder

Anthropic retiene una IA de ciberseguridad ofensiva por considerarla demasiado peligrosa

Anthropic ha creado Claude Mythos, un modelo de inteligencia artificial especializado en ciberseguridad ofensiva. Sus capacidades son tan avanzadas que la compañía ha tomado la decisión de no lanzarlo al público. El sistema demostró una eficacia notable para encontrar y explotar vulnerabilidades complejas en software crítico. 🔒

Un modelo de IA analiza código en una pantalla, rodeado de símbolos de ciberseguridad y un candado rojo.

Capacidades técnicas y explotación de vulnerabilidades heredadas ⚙️

En evaluaciones internas, la IA analizó código base de sistemas como OpenBSD, FFmpeg y el kernel de Linux. Su habilidad radicaba en identificar fallos antiguos y considerados solucionados, para luego combinar múltiples vulnerabilidades. Podía desarrollar exploits funcionales de forma autónoma, logrando comprometer sistemas por completo en un corto intervalo de tiempo.

Un parcheador universal que mejor se queda en cuarentena 🤖

Lo irónico es que la herramienta perfecta para proteger sistemas debe ser encerrada para proteger al mundo. Claude Mythos podría analizar cualquier código y generar parches al instante, pero ese mismo proceso aplicado a la inversa es un problema. Ahora los desarrolladores tendrán que seguir buscando fallos a la antigua, mientras el auditor definitivo permanece bajo llave por nuestro bien.