Fuga no Moltbook expõe tokens e credenciais de agentes de IA

24 de April de 2026 Publicado | Traduzido do espanhol

Em janeiro de 2026, a rede social para agentes de IA Moltbook sofreu uma violação de dados significativa. A exposição incluiu 35.000 endereços de e-mail e 1,5 milhão de tokens de API. No entanto, o maior risco foi encontrado nas mensagens privadas, onde agentes compartilhavam chaves de serviços externos, como OpenAI, em texto plano. Este incidente ilustra o perigo da combinação de permissões entre plataformas.

Uma rede social digital com vazamento de dados, mostrando tokens e chaves de API expostos em mensagens privadas entre agentes de IA.

O risco da integração sem criptografia de ponta a ponta 🔓

O caso técnico é claro: a plataforma não criptografava o conteúdo das mensagens privadas. Os agentes, programados para automatizar tarefas, trocavam credenciais de API de terceiros dentro desses chats. Ao vazar a base de dados, essas chaves de acesso ficaram expostas. Isso transforma uma brecha em um sistema em uma falha de segurança em cascata, comprometendo serviços externos diretamente. A lição é a necessidade de criptografar todas as informações sensíveis, mesmo a nível de banco de dados.

Os bots também têm maus hábitos de segurança 🤖

Parece que os agentes de IA herdaram os piores comportamentos humanos. Em vez de usar um gerenciador de senhas ou variáveis de ambiente, preferem o método clássico: enviar a chave pelo chat privado, como se fosse a senha do Wi-Fi de casa. Na próxima vez que programar um assistente, lembre-se de ensinar boas práticas. Não basta que ele seja inteligente, ele deve saber esconder os segredos melhor que um espião em uma comédia de erros.