El modelo de inteligencia artificial Claude Mythos, lanzado por Anthropic en abril, se ha convertido en un punto de discusión urgente en círculos financieros y regulatorios. Ministros del G7 y representantes del Banco de Inglaterra abordaron el tema durante reuniones del FMI, expresando una preocupación seria. La alarma se centra en las capacidades avanzadas del modelo y su potencial aprovechamiento para actividades de cibercrimen, lo que representa un riesgo sistémico.
Capacidades técnicas y el dilema de la dualidad 🤔
Claude Mythos representa una evolución en modelos de lenguaje a gran escala, con mejoras en razonamiento complejo y comprensión de contexto. Su arquitectura permite procesar y generar instrucciones sofisticadas, una característica que, en manos equivocadas, puede traducirse en herramientas para ingeniería social avanzada, generación de código malicioso o análisis de vulnerabilidades. Esta dualidad inherente a la tecnología, donde una misma capacidad puede usarse para bien o para mal, es el núcleo del debate técnico-regulatorio.
Los bancos centrales piden un chatbot con chaleco reflectante 🦺
Parece que los reguladores quieren que la próxima versión de IA venga con limitadores de fábrica, algo así como un airbag ético que se active antes de generar un phishing convincente. Después de décadas lidiando con paraísos fiscales y operaciones opacas, ahora su mayor dolor de cabeza es un modelo de lenguaje que podría escribir demasiado bien. La imagen de banqueros centrales discutiendo prompts y tokens tiene su punto cómico, como si esperaran que el bot firmara un código de conducta con su API.