पिछले सप्ताह, Anthropic ने प्रोजेक्ट ग्लासविंग प्रस्तुत किया, जो एक AI मॉडल है जो सॉफ्टवेयर में सुरक्षा दोषों का पता लगाने में इतना सक्षम है कि कंपनी ने इसके सार्वजनिक लॉन्च में देरी करने का फैसला किया। इसके बजाय, उन्होंने Apple, Microsoft, Google और Amazon जैसे दिग्गजों को पहुंच प्रदान की है ताकि दुर्भावनापूर्ण तत्वों द्वारा उनका शोषण किए जाने से पहले वे त्रुटियों को ठीक कर सकें। ग्लासविंग का आधार, Mythos Preview मॉडल, कमजोरियों की पहचान करने में अभूतपूर्व क्षमता प्रदर्शित करता है।
स्वचालित दोष पहचान कैसे काम करती है 🛡️
ग्लासविंग स्रोत कोड और बाइनरी का विश्लेषण करने के लिए गहन शिक्षण तकनीकों का उपयोग करता है, उन पैटर्नों की पहचान करता है जो अक्सर बफर ओवरफ्लो या SQL इंजेक्शन जैसी कमजोरियों से पहले होते हैं। पारंपरिक उपकरणों के विपरीत, यह मॉडल केवल ज्ञात हस्ताक्षरों तक सीमित नहीं है; यह त्रुटियों के नए वर्गों का अनुमान लगाने में सक्षम है। इसकी सटीकता दर किसी भी व्यावसायिक स्कैनर से बेहतर है, जिसने Anthropic को सावधान रहने पर मजबूर कर दिया है। कंपनी को डर है कि गलत हाथों में, यह उपकरण लाभ से अधिक नुकसान पहुंचा सकता है।
जब AI आपके बॉस से बेहतर बग ढूंढता है 😅
अब पता चला है कि एक कृत्रिम बुद्धिमत्ता आपकी कंपनी की QA टीम की तुलना में सुरक्षा छेद ढूंढने में अधिक प्रभावी है। Anthropic ने, एक दुर्लभ जिम्मेदारी के कार्य में, ग्लासविंग को सार्वजनिक रूप से जारी न करने का निर्णय लिया है। इसके बजाय, उन्होंने इसे बड़ी टेक कंपनियों को दे दिया है। परिणाम? Apple, Microsoft और Google को AI द्वारा हैकर्स को दिखाए जाने से पहले अपनी खुद की त्रुटियों को ठीक करने के लिए कमर कसनी होगी। तो, अगर आपके कोड में ग्रुयेरे पनीर से भी अधिक छेद हैं, तो प्रार्थना करें कि आपको ऑडिट का सामना न करना पड़े।