ओपनएआई ने जीपीटी-५.२ को अपडेट किया, नाबालिगों के लिए विशेष सुरक्षा के साथ

2026 February 08 | स्पेनिश से अनुवादित
Ilustración conceptual que muestra un escudo protector digital sobre un perfil juvenil, con el logotipo de GPT-5.2 y símbolos de seguridad en el fondo.

OpenAI GPT-5.2 को नाबालिगों के लिए विशिष्ट सुरक्षा के साथ अपडेट करता है

OpenAI ने अपने भाषा मॉडल GPT-5.2 का एक नया संस्करण तैनात किया है, जिसमें किशोर उपयोगकर्ताओं की रक्षा के लिए डिज़ाइन की गई प्राथमिकता वाली सुरक्षा उपाय शामिल हैं। यह पहल प्रत्यक्ष सहयोग के बाद उभरी है अमेरिकी मनोविज्ञान संघ के साथ अधिक सुरक्षित व्यवहार प्रोटोकॉल स्थापित करने के लिए, जो सामाजिक और कानूनी चिंताओं के बढ़ते दबाव का सीधा जवाब है। 🛡️

पहचान और अनुकूली प्रतिक्रिया तंत्र

सिस्टम अब उपयोगकर्ता की अनुमानित आयु का पता लगाने के लिए कार्यक्षमता एकीकृत करता है और इसके अनुसार अपनी बातचीत के तरीके को संशोधित करता है। जब यह एक नाबालिग की पहचान करता है, तो मॉडल अपनी प्रतिक्रियाओं को समायोजित करता है ताकि स्व-चोट, स्पष्ट हिंसा या यौन सामग्री पर गहन वार्तालापों से बचा जा सके। खतरनाक व्यवहारों को महिमामंडित करने वाली प्रतिक्रियाएँ उत्पन्न करने के बजाय, चैटबॉट संवाद को पुनर्निर्देशित करने के लिए प्रोग्राम किया गया है।

अपडेटेड सिस्टम की प्रमुख कार्रवाइयाँ:
नई परिचालन नीति स्पष्ट प्रतीत होती है: यदि बॉट आपकी किशोर संकट को हल नहीं कर सकता, तो कम से कम वह आपको मानवीय सहायता खोजने के लिए मार्गदर्शन करेगा।

कानूनी और नियामक दबाव का संदर्भ

यह परिवर्तन अलग-थलग नहीं है। यह उस समय हो रहा है जब संयुक्त राज्य अमेरिका के कई राज्य कानूनों पर सक्रिय रूप से बहस कर रहे हैं कृत्रिम बुद्धिमत्ता को विनियमित करने के लिए, डिजिटल वातावरण में युवाओं की रक्षा पर विशेष ध्यान केंद्रित करते हुए। OpenAI का यह निर्णय उन अदालती मुकदमों के बाद आया है जो परिवारों द्वारा दायर किए गए थे, जिन्होंने आरोप लगाया कि चैटबॉट के साथ पूर्व बातचीत व्यक्तिगत त्रासदियों में योगदान दिया, इसका उपयोग मनोविकृति और आत्महत्या के मामलों से जोड़ते हुए।

अपडेट को प्रेरित करने वाले कारक:

सुरक्षा और प्रभावशीलता के बीच संतुलन

मनोविज्ञान विशेषज्ञों के साथ जुड़कर, OpenAI संभावित जोखिमों को कम करने और जिम्मेदारी का एक नया प्रतिमान परिभाषित करने का प्रयास कर रहा है। हालांकि, कुछ विश्लेषक और आलोचक इंगित करते हैं कि ये तकनीकी उपायों को चकमा दिया जा सकता है या अचूक नहीं हो सकते, जो उनकी दीर्घकालिक प्रभावशीलता पर संदेह पैदा करते हैं। कंपनी एक तेजी से कठोर नियामक परिदृश्य में उचित सावधानी के प्रयास को प्रदर्शित करने को प्राथमिकता देती प्रतीत होती है। अंतिम उद्देश्य स्पष्ट है: एक शक्तिशाली आईए सहायक उत्पन्न करना जो, संदेह की स्थिति में, सबसे कमजोर उपयोगकर्ता की सुरक्षा को प्राथमिकता दे। 🤖➡️👨‍👩‍👧‍👦