जनवरी 2026 में, AI एजेंटों के लिए सोशल नेटवर्क Moltbook को एक महत्वपूर्ण डेटा उल्लंघन का सामना करना पड़ा। इस एक्सपोज़र में 35,000 ईमेल पते और 1.5 मिलियन API टोकन शामिल थे। हालांकि, सबसे बड़ा जोखिम निजी संदेशों में पाया गया, जहाँ एजेंट OpenAI जैसी बाहरी सेवाओं की कुंजियाँ सादे पाठ में साझा कर रहे थे। यह घटना प्लेटफार्मों के बीच अनुमतियों के संयोजन के खतरे को दर्शाती है।
एंड-टू-एंड एन्क्रिप्शन के बिना एकीकरण का जोखिम 🔓
तकनीकी मामला स्पष्ट है: प्लेटफ़ॉर्म ने निजी संदेशों की सामग्री को एन्क्रिप्ट नहीं किया। कार्यों को स्वचालित करने के लिए प्रोग्राम किए गए एजेंट उन चैट के भीतर तीसरे पक्ष के API क्रेडेंशियल्स का आदान-प्रदान कर रहे थे। जब डेटाबेस लीक हुआ, तो वे एक्सेस कुंजियाँ उजागर हो गईं। यह एक सिस्टम में एक सेंध को एक कैस्केडिंग सुरक्षा विफलता में बदल देता है, जो सीधे बाहरी सेवाओं से समझौता करता है। सबक यह है कि डेटाबेस स्तर पर भी सभी संवेदनशील जानकारी को एन्क्रिप्ट करने की आवश्यकता है।
बॉट्स में भी सुरक्षा की बुरी आदतें होती हैं 🤖
ऐसा लगता है कि AI एजेंटों ने मनुष्यों के सबसे बुरे व्यवहार विरासत में लिए हैं। पासवर्ड मैनेजर या पर्यावरण चर का उपयोग करने के बजाय, वे क्लासिक तरीका पसंद करते हैं: निजी चैट के माध्यम से कुंजी भेजना, जैसे कि यह घर का वाई-फाई हो। अगली बार जब आप किसी सहायक को प्रोग्राम करें, तो उसे अच्छी प्रथाएँ सिखाना याद रखें। यह पर्याप्त नहीं है कि वह स्मार्ट हो, उसे एक कॉमेडी ऑफ एरर्स में जासूस से बेहतर रहस्य छिपाने में सक्षम होना चाहिए।