गूगल ने एक स्पष्ट चेतावनी जारी की है: साइबर अपराधी अपने हमलों में कृत्रिम बुद्धिमत्ता को शामिल कर रहे हैं। उनकी रिपोर्ट के अनुसार, हैकर्स AI मॉडल को धोखा देने और उनसे कमजोरियों की पहचान करवाने के लिए व्यक्तित्व-आधारित जेलब्रेकिंग का उपयोग कर रहे हैं। इसके अलावा, वे हमलों को लॉन्च करने से पहले शोषण को परिष्कृत करने के लिए ज्ञात खामियों के डेटा के साथ सिस्टम को फीड करते हैं। यह एक चिंताजनक विकास है।
हमलावर AI को खामियां ढूंढने के लिए कैसे प्रशिक्षित करते हैं 🤖
यह प्रक्रिया जादुई नहीं है। हमलावर जेलब्रेकिंग तकनीकों का उपयोग करते हैं जो AI को काल्पनिक व्यक्तित्व प्रदान करती हैं, इसे अपनी नैतिक सीमाओं को अनदेखा करने के लिए मजबूर करती हैं। फिर, वे मॉडल को शोषण पैटर्न सीखने के लिए कमजोरियों (CVEs) के डेटाबेस पेश करते हैं। परिणाम एक ऐसा सहायक होता है जो अनुकूलित हमले के वैक्टर सुझाने में सक्षम है, जिससे खामियों की खोज का समय हफ्तों से घटकर घंटों में आ जाता है।
AI, वह इंटर्न जो अब आपसे एक्सप्लॉइट्स के बारे में अधिक जानता है 🧠
यह ऐसा है जैसे कोई इंटर्न हो जो आपसे कॉफी मांगने के बजाय, आपको बताता है कि ऑफिस में घुसने के लिए कौन सा दरवाजा खुला छोड़ना है। हैकर्स ने AI को उस शांत साथी में बदल दिया है जो कभी नहीं सोता और केवल चीजों को तोड़ने के बारे में सोचता है। सबसे बुरी बात: यह तेजी से सीख रहा है। जल्द ही यह Bitcoin में वेतन वृद्धि मांगेगा।