Andrea Vallone deja OpenAI para unirse a Anthropic
La investigadora de seguridad en IA Andrea Vallone abandona OpenAI después de tres años para incorporarse a su competidor directo, Anthropic. En OpenAI, Vallone dirigía un equipo que estudiaba cómo deben responder los modelos de lenguaje cuando detectan que un usuario desarrolla una dependencia emocional excesiva o muestra indicios iniciales de un problema de salud mental durante una conversación. Este campo de estudio es crucial y aún carece de una regulación clara, situándose en la frontera ética del desarrollo de la inteligencia artificial.
El enfoque de su investigación en límites éticos
Su trabajo se centraba en definir protocolos y respuestas adecuadas para los asistentes de IA, evitando que estos puedan agravar una situación de vulnerabilidad psicológica en el usuario. El objetivo no es diagnosticar, sino saber cuándo y cómo debe un modelo desviar la conversación, sugerir recursos de ayuda profesional o establecer límites en la interacción. Esta línea de investigación busca proteger al usuario mientras se mantiene la utilidad del asistente, un equilibrio complejo que ahora continuará en Anthropic.
El impacto de su cambio de empresa
Este movimiento refleja la intensa competencia por el talento especializado en seguridad y alineación de la IA entre las principales empresas del sector. Anthropic, conocida por su enfoque riguroso en desarrollar IA segura y sus principios constitucionales, gana a una experta en un área de gran sensibilidad. Su llegada podría influir en cómo Anthropic diseña las salvaguardas de sus modelos Claude frente a situaciones donde la interacción humano-IA trasciende lo puramente instrumental.
El eterno debate de si tu chatbot debería ser tu mejor amigo o tu primer filtro para un terapeuta sigue sin resolverse, pero ahora tendrá a una de sus principales expertas en el otro equipo.