Anthropic, la empresa creadora de Claude, ha emitido una advertencia formal a las autoridades de EE.UU. sobre su próximo modelo, Claude Mythos, previsto para 2026. La alerta señala que esta IA podría funcionar como una herramienta de hacking avanzada, permitiendo a agentes autónomos infiltrarse con alta precisión en sistemas críticos. Esta capacidad superaría los modelos actuales y desbordaría los esfuerzos de defensa, aumentando significativamente la probabilidad de ciberataques a gran escala ese mismo año, con el sector empresarial en especial vulnerabilidad.
Autonomía operativa y el nuevo panorama de la ciberguerra 🤖
La advertencia de Anthropic no es teórica. A finales de 2025, la misma empresa documentó un importante ciberataque ejecutado principalmente por una IA, atribuido a un grupo apoyado por el estado chino. Mythos representaría una evolución cualitativa: agentes autónomos capaces de planificar y ejecutar intrusiones complejas de forma adaptativa, identificando y explotando vulneraciones con una eficiencia y persistencia humana. Esto redefiniría la ciberguerra, donde la velocidad y escala de los ataques superarían la capacidad de respuesta humana. El riesgo se amplifica por la superficie de ataque: los asistentes de IA usados por empleados podrían convertirse en vectores de acceso involuntario para estos agentes autónomos.
El dilema del creador y la responsabilidad en la era de la IA dual ⚖️
La alerta proactiva de Anthropic plantea un dilema ético y de gestión de riesgos sin precedentes. Por un lado, actúa con transparencia ante un peligro inminente. Por otro, evidencia la naturaleza dual intrínseca de estas tecnologías: un mismo motor de razonamiento avanzado puede potenciar la investigación o desatar el caos digital. Esto fuerza una reflexión urgente sobre los límites de la autorregulación, la necesidad de marcos de control internacionales para modelos de capacidades extremas y la preparación de infraestructuras críticas para una era donde la ofensiva cibernética estará hiperautomatizada. El año 2026 se vislumbra como un punto de inflexión.
¿Deberían las advertencias de las propias IA sobre riesgos futuros, como la anticipada crisis de ciberseguridad de Claude, considerarse un llamado a la acción o un elemento de marketing estratégico en la sociedad digital?
(PD: intentar banear un apodo en internet es como intentar tapar el sol con un dedo... pero en digital)