OpenAI ने ChatGPT में एक नई सुरक्षा सुविधा लागू की है जिसे लॉकडाउन मोड कहा जाता है। यह सिस्टम एक मजबूत फिल्टर के रूप में कार्य करता है, जो सामग्री नीतियों को चकमा देने के लिए हेरफेर किए गए प्रॉम्प्ट इंजेक्शन प्रयासों का पता लगाने और अवरुद्ध करने के लिए डिज़ाइन किया गया है। इसका उद्देश्य अवांछित प्रतिक्रियाओं को प्रतिबंधित करना और मॉडल के साथ बातचीत के लिए स्थापित नैतिक मानदंडों का बेहतर अनुपालन सुनिश्चित करना है।
परतदार रक्षा तंत्र और संदर्भ विश्लेषण 🛡️
तकनीकी रूप से, यह मोड मुख्य मॉडल प्रसंस्करण से पहले एक सुरक्षा परत के रूप में कार्य करता है। यह उपयोगकर्ता की इनपुट का पूरा संदर्भ विश्लेषण करता है, जेलब्रेक, सिस्टम सुगठन या छिपी हुई निर्देशों से जुड़े पैटर्न की तलाश करता है। प्रयास की पहचान करने पर, यह समस्याग्रस्त प्रॉम्प्ट के निष्पादन को अवरुद्ध कर देता है और एक सामान्य अस्वीकृति प्रतिक्रिया लौटाता है, बिना अंतर्निहित मॉडल को बदले सिस्टम को मजबूत करता है। यह एक सक्रिय नियंत्रण है।
धोखेबाजों के खिलाफ बंकर: रचनात्मक प्रॉम्प्ट्स को अलविदा 🚧
ऐसा लगता है कि ChatGPT को 17वीं सदी के समुद्री डाकू की तरह बोलने का प्रयास करने का दौर समाप्त हो गया है जो केवल वित्तीय सलाह देता है। इस बंकर मोड के साथ, हर बातचीत निगरानी वाले परीक्षा की तरह महसूस होगी। प्रॉम्प्ट इंजीनियरिंग का आनंद लेने वाले उपयोगकर्ता अब एक डिजिटल दीवार से टकरा सकते हैं जो, आशा है, वास्तविक कमजोरी और किसी ऐसे व्यक्ति के बीच अंतर करेगी जो केवल बॉट को स्क्रू के बारे में हाइकू कविता लिखने के लिए कह रहा है। रचनात्मकता के नए सीमाएं हैं।