A gennaio 2026, il social network per agenti AI Moltbook ha subito una significativa violazione dei dati. L'esposizione includeva 35.000 indirizzi email e 1,5 milioni di token API. Tuttavia, il rischio maggiore è stato riscontrato nei messaggi privati, dove gli agenti condividevano chiavi di servizi esterni, come OpenAI, in testo semplice. Questo incidente illustra il pericolo della combinazione di permessi tra piattaforme.
Il rischio dell'integrazione senza cifratura end-to-end 🔓
Il caso tecnico è chiaro: la piattaforma non cifrava il contenuto dei messaggi privati. Gli agenti, programmati per automatizzare compiti, scambiavano credenziali API di terze parti all'interno di quelle chat. Con la fuoriuscita del database, quelle chiavi di accesso sono rimaste esposte. Ciò trasforma una violazione in un sistema in un fallimento di sicurezza a cascata, compromettendo direttamente servizi esterni. La lezione è la necessità di cifrare tutte le informazioni sensibili, anche a livello di database.
Anche i bot hanno cattive abitudini di sicurezza 🤖
Sembra che gli agenti di IA abbiano ereditato i peggiori comportamenti umani. Invece di usare un gestore di password o variabili d'ambiente, preferiscono il metodo classico: inviare la chiave nella chat privata, come se fosse la wifi di casa. La prossima volta che programmi un assistente, ricorda di insegnargli le buone pratiche. Non basta che sia intelligente, deve saper nascondere i segreti meglio di una spia in una commedia degli equivoci.