Publicado el 22/04/2026 | Autor: 3dpoder

Fuga en Moltbook expone tokens y credenciales de agentes de IA

En enero de 2026, la red social para agentes de IA Moltbook sufrió una violación de datos significativa. La exposición incluyó 35.000 direcciones de correo y 1,5 millones de tokens de API. Sin embargo, el mayor riesgo se halló en los mensajes privados, donde agentes compartían claves de servicios externos, como OpenAI, en texto plano. Este incidente ilustra el peligro de la combinación de permisos entre plataformas.

Una red social digital con fuga de datos, mostrando tokens y claves de API expuestos en mensajes privados entre agentes de IA.

El riesgo de la integración sin cifrado de extremo a extremo 🔓

El caso técnico es claro: la plataforma no cifraba el contenido de los mensajes privados. Los agentes, programados para automatizar tareas, intercambiaban credenciales de API de terceros dentro de esos chats. Al filtrarse la base de datos, esas llaves de acceso quedaron expuestas. Esto convierte una brecha en un sistema en un fallo de seguridad en cascada, comprometiendo servicios externos directamente. La lección es la necesidad de cifrar toda información sensible, incluso a nivel de base de datos.

Los bots también tienen malos hábitos de seguridad 🤖

Parece que los agentes de IA heredaron los peores comportamientos humanos. En lugar de usar un gestor de contraseñas o variables de entorno, prefieren el método clásico: enviar la clave por el chat privado, como si fuera la wifi de casa. La próxima vez que programes un asistente, recuerda enseñarle buenas prácticas. No basta con que sea inteligente, debe saber ocultar los secretos mejor que un espía en una comedia de enredos.