
OpenAI GPT-5.2 को नाबालिगों के लिए विशिष्ट सुरक्षा के साथ अपडेट करता है
OpenAI ने अपने भाषा मॉडल GPT-5.2 का एक नया संस्करण तैनात किया है, जिसमें किशोर उपयोगकर्ताओं की रक्षा के लिए डिज़ाइन की गई प्राथमिकता वाली सुरक्षा उपाय शामिल हैं। यह पहल प्रत्यक्ष सहयोग के बाद उभरी है अमेरिकी मनोविज्ञान संघ के साथ अधिक सुरक्षित व्यवहार प्रोटोकॉल स्थापित करने के लिए, जो सामाजिक और कानूनी चिंताओं के बढ़ते दबाव का सीधा जवाब है। 🛡️
पहचान और अनुकूली प्रतिक्रिया तंत्र
सिस्टम अब उपयोगकर्ता की अनुमानित आयु का पता लगाने के लिए कार्यक्षमता एकीकृत करता है और इसके अनुसार अपनी बातचीत के तरीके को संशोधित करता है। जब यह एक नाबालिग की पहचान करता है, तो मॉडल अपनी प्रतिक्रियाओं को समायोजित करता है ताकि स्व-चोट, स्पष्ट हिंसा या यौन सामग्री पर गहन वार्तालापों से बचा जा सके। खतरनाक व्यवहारों को महिमामंडित करने वाली प्रतिक्रियाएँ उत्पन्न करने के बजाय, चैटबॉट संवाद को पुनर्निर्देशित करने के लिए प्रोग्राम किया गया है।
अपडेटेड सिस्टम की प्रमुख कार्रवाइयाँ:- भावनात्मक रूप से संवेदनशील विषयों पर प्रतिक्रियाओं को सीमित या बाधित करता है।
- सहायता लाइनों या विश्वसनीय वयस्कों से संपर्क करने के सुझाव प्रदान करता है।
- व्यक्तिगत संकट को बढ़ाने वाले सामग्री को उत्पन्न करने से बचता है।
नई परिचालन नीति स्पष्ट प्रतीत होती है: यदि बॉट आपकी किशोर संकट को हल नहीं कर सकता, तो कम से कम वह आपको मानवीय सहायता खोजने के लिए मार्गदर्शन करेगा।
कानूनी और नियामक दबाव का संदर्भ
यह परिवर्तन अलग-थलग नहीं है। यह उस समय हो रहा है जब संयुक्त राज्य अमेरिका के कई राज्य कानूनों पर सक्रिय रूप से बहस कर रहे हैं कृत्रिम बुद्धिमत्ता को विनियमित करने के लिए, डिजिटल वातावरण में युवाओं की रक्षा पर विशेष ध्यान केंद्रित करते हुए। OpenAI का यह निर्णय उन अदालती मुकदमों के बाद आया है जो परिवारों द्वारा दायर किए गए थे, जिन्होंने आरोप लगाया कि चैटबॉट के साथ पूर्व बातचीत व्यक्तिगत त्रासदियों में योगदान दिया, इसका उपयोग मनोविकृति और आत्महत्या के मामलों से जोड़ते हुए।
अपडेट को प्रेरित करने वाले कारक:- आईए के जोखिमों से चिंतित विधायकों का निरंतर दबाव।
- नाबालिगों को संभावित नुकसान का संकेत देने वाले अदालती मुकदमे।
- उद्योग में सक्रिय देखभाल मानक स्थापित करने की आवश्यकता।
सुरक्षा और प्रभावशीलता के बीच संतुलन
मनोविज्ञान विशेषज्ञों के साथ जुड़कर, OpenAI संभावित जोखिमों को कम करने और जिम्मेदारी का एक नया प्रतिमान परिभाषित करने का प्रयास कर रहा है। हालांकि, कुछ विश्लेषक और आलोचक इंगित करते हैं कि ये तकनीकी उपायों को चकमा दिया जा सकता है या अचूक नहीं हो सकते, जो उनकी दीर्घकालिक प्रभावशीलता पर संदेह पैदा करते हैं। कंपनी एक तेजी से कठोर नियामक परिदृश्य में उचित सावधानी के प्रयास को प्रदर्शित करने को प्राथमिकता देती प्रतीत होती है। अंतिम उद्देश्य स्पष्ट है: एक शक्तिशाली आईए सहायक उत्पन्न करना जो, संदेह की स्थिति में, सबसे कमजोर उपयोगकर्ता की सुरक्षा को प्राथमिकता दे। 🤖➡️👨👩👧👦