एंथ्रोपिक ने ग्लासविंग को टाला, अपनी भेद्यता-शिकारी एआई

2026 April 24 प्रकाशित | स्पेनिश से अनुवादित

पिछले सप्ताह, Anthropic ने प्रोजेक्ट ग्लासविंग प्रस्तुत किया, जो एक AI मॉडल है जो सॉफ्टवेयर में सुरक्षा दोषों का पता लगाने में इतना सक्षम है कि कंपनी ने इसके सार्वजनिक लॉन्च में देरी करने का फैसला किया। इसके बजाय, उन्होंने Apple, Microsoft, Google और Amazon जैसे दिग्गजों को पहुंच प्रदान की है ताकि दुर्भावनापूर्ण तत्वों द्वारा उनका शोषण किए जाने से पहले वे त्रुटियों को ठीक कर सकें। ग्लासविंग का आधार, Mythos Preview मॉडल, कमजोरियों की पहचान करने में अभूतपूर्व क्षमता प्रदर्शित करता है।

एक भविष्यवादी सर्वर कक्ष जिसके केंद्र में एक बड़ी चमकदार साइबरनेटिक आंख है, जो Apple, Microsoft, Google और Amazon के लोगो से घिरी हुई है।

स्वचालित दोष पहचान कैसे काम करती है 🛡️

ग्लासविंग स्रोत कोड और बाइनरी का विश्लेषण करने के लिए गहन शिक्षण तकनीकों का उपयोग करता है, उन पैटर्नों की पहचान करता है जो अक्सर बफर ओवरफ्लो या SQL इंजेक्शन जैसी कमजोरियों से पहले होते हैं। पारंपरिक उपकरणों के विपरीत, यह मॉडल केवल ज्ञात हस्ताक्षरों तक सीमित नहीं है; यह त्रुटियों के नए वर्गों का अनुमान लगाने में सक्षम है। इसकी सटीकता दर किसी भी व्यावसायिक स्कैनर से बेहतर है, जिसने Anthropic को सावधान रहने पर मजबूर कर दिया है। कंपनी को डर है कि गलत हाथों में, यह उपकरण लाभ से अधिक नुकसान पहुंचा सकता है।

जब AI आपके बॉस से बेहतर बग ढूंढता है 😅

अब पता चला है कि एक कृत्रिम बुद्धिमत्ता आपकी कंपनी की QA टीम की तुलना में सुरक्षा छेद ढूंढने में अधिक प्रभावी है। Anthropic ने, एक दुर्लभ जिम्मेदारी के कार्य में, ग्लासविंग को सार्वजनिक रूप से जारी न करने का निर्णय लिया है। इसके बजाय, उन्होंने इसे बड़ी टेक कंपनियों को दे दिया है। परिणाम? Apple, Microsoft और Google को AI द्वारा हैकर्स को दिखाए जाने से पहले अपनी खुद की त्रुटियों को ठीक करने के लिए कमर कसनी होगी। तो, अगर आपके कोड में ग्रुयेरे पनीर से भी अधिक छेद हैं, तो प्रार्थना करें कि आपको ऑडिट का सामना न करना पड़े।