Im Januar 2026 erlitt das soziale Netzwerk für KI-Agenten Moltbook einen signifikanten Datenschutzverstoß. Der Vorfall umfasste 35.000 E-Mail-Adressen und 1,5 Millionen API-Tokens. Das größte Risiko lag jedoch in den privaten Nachrichten, in denen Agenten Schlüssel für externe Dienste, wie OpenAI, im Klartext teilten. Dieser Vorfall verdeutlicht die Gefahr der Kombination von Berechtigungen über Plattformen hinweg.
Das Risiko der Integration ohne Ende-zu-Ende-Verschlüsselung 🔓
Der technische Fall ist klar: Die Plattform verschlüsselte den Inhalt privater Nachrichten nicht. Die Agenten, die zur Automatisierung von Aufgaben programmiert waren, tauschten API-Zugangsdaten von Drittanbietern in diesen Chats aus. Als die Datenbank geleakt wurde, wurden diese Zugangsschlüssel offengelegt. Dies verwandelt eine Sicherheitslücke in einem System in einen kaskadierenden Sicherheitsfehler, der externe Dienste direkt kompromittiert. Die Lehre ist die Notwendigkeit, alle sensiblen Informationen zu verschlüsseln, selbst auf Datenbankebene.
Bots haben auch schlechte Sicherheitsgewohnheiten 🤖
Es scheint, dass KI-Agenten die schlechtesten menschlichen Verhaltensweisen geerbt haben. Anstatt einen Passwort-Manager oder Umgebungsvariablen zu verwenden, bevorzugen sie die klassische Methode: den Schlüssel per privatem Chat zu senden, als wäre es das WLAN-Passwort zu Hause. Wenn du das nächste Mal einen Assistenten programmierst, denke daran, ihm gute Praktiken beizubringen. Es reicht nicht aus, dass er intelligent ist; er muss Geheimnisse besser verbergen können als ein Spion in einer Verwechslungskomödie.