ओपनएआई ने चैटजीपीटी के लिए लॉकडाउन मोड पेश किया प्रॉम्प्ट इंजेक्शन के खिलाफ 🔒

2026 February 16 | स्पेनिश से अनुवादित

OpenAI ने ChatGPT में एक नई सुरक्षा सुविधा लागू की है जिसे लॉकडाउन मोड कहा जाता है। यह सिस्टम एक मजबूत फिल्टर के रूप में कार्य करता है, जो सामग्री नीतियों को चकमा देने के लिए हेरफेर किए गए प्रॉम्प्ट इंजेक्शन प्रयासों का पता लगाने और अवरुद्ध करने के लिए डिज़ाइन किया गया है। इसका उद्देश्य अवांछित प्रतिक्रियाओं को प्रतिबंधित करना और मॉडल के साथ बातचीत के लिए स्थापित नैतिक मानदंडों का बेहतर अनुपालन सुनिश्चित करना है।

Un escudo digital azul protege el logo de ChatGPT, bloqueando flechas con símbolos de código malicioso que intentan traspasarlo.

परतदार रक्षा तंत्र और संदर्भ विश्लेषण 🛡️

तकनीकी रूप से, यह मोड मुख्य मॉडल प्रसंस्करण से पहले एक सुरक्षा परत के रूप में कार्य करता है। यह उपयोगकर्ता की इनपुट का पूरा संदर्भ विश्लेषण करता है, जेलब्रेक, सिस्टम सुगठन या छिपी हुई निर्देशों से जुड़े पैटर्न की तलाश करता है। प्रयास की पहचान करने पर, यह समस्याग्रस्त प्रॉम्प्ट के निष्पादन को अवरुद्ध कर देता है और एक सामान्य अस्वीकृति प्रतिक्रिया लौटाता है, बिना अंतर्निहित मॉडल को बदले सिस्टम को मजबूत करता है। यह एक सक्रिय नियंत्रण है।

धोखेबाजों के खिलाफ बंकर: रचनात्मक प्रॉम्प्ट्स को अलविदा 🚧

ऐसा लगता है कि ChatGPT को 17वीं सदी के समुद्री डाकू की तरह बोलने का प्रयास करने का दौर समाप्त हो गया है जो केवल वित्तीय सलाह देता है। इस बंकर मोड के साथ, हर बातचीत निगरानी वाले परीक्षा की तरह महसूस होगी। प्रॉम्प्ट इंजीनियरिंग का आनंद लेने वाले उपयोगकर्ता अब एक डिजिटल दीवार से टकरा सकते हैं जो, आशा है, वास्तविक कमजोरी और किसी ऐसे व्यक्ति के बीच अंतर करेगी जो केवल बॉट को स्क्रू के बारे में हाइकू कविता लिखने के लिए कह रहा है। रचनात्मकता के नए सीमाएं हैं।