لقد نفذت OpenAI وظيفة أمان جديدة تُدعى وضع القفل في ChatGPT. يعمل هذا النظام كمرشح معزز، مصمم لاكتشاف وحظر محاولات حقن التلقيمات المُزَوَّرة التي تسعى إلى الالتفاف على سياسات المحتوى. هدفه هو تقييد الردود غير المرغوب فيها وضمان الامتثال الأكبر للمعايير الأخلاقية المحددة للتفاعل مع النموذج.
آليات دفاع متعددة الطبقات وتحليل السياق 🛡️
تقنيًا، يعمل الوضع كطبقة أمان قبل معالجة النموذج الرئيسي. يحلل السياق الكامل لإدخال المستخدم، بحثًا عن أنماط مرتبطة بكسر الحماية، أو انتحال النظام أو تعليمات مخفية. عند تحديد محاولة، يحظر تنفيذ التلقيم المشكل ويعيد ردًا عامًا للرفض، معززًا النظام الأساسي دون تغيير النموذج الأساسي. إنها حماية استباقية.
الملجأ المضاد للمخادعين: وداعًا للتلقيمات الإبداعية 🚧
يبدو أن عصر محاولة جعل ChatGPT يتحدث كقرصان من القرن السابع عشر الذي يقدم نصائح مالية فقط قد انتهى. مع هذا وضع الملجأ، ستشعر كل محادثة كأنها امتحان تحت الإشراف. المستخدمون الذين كانوا يستمتعون بفن هندسة التلقيمات قد يجدون أنفسهم أمام جدار رقمي، الذي مع الحظ سيميز بين ثغرة حقيقية وشخص يحاول فقط أن يكتب البوت قصيدة هايكو عن البراغي. الإبداع لديه حدود جديدة.