
تشغّل ChatGPT حواجز حماية لتحديد المستخدمين الشباب
لقد فعّلت الذكاء الاصطناعي من OpenAI آليات في مستكشفاتها لـ كشف الحسابات التي يديرها أشخاص قاصرون. تهدف هذه المبادرة إلى حماية المراهقين من خلال تنفيذ أنظمة تحسب العمر المتوقع للمحادث شريك دون سؤاله مباشرة. 🛡️
آليات استنتاج العمر
لا يطلب النموذج بيانات شخصية، بل يستنتج العمر من إشارات غير مباشرة يلتقطها أثناء الحوار. يعالج نوع اللغة المستخدمة، ومستوى تعقيد الأسئلة، والسياق العام للمحادثة. بالإضافة إلى ذلك، يمكنه تقييم الشريحة الزمنية التي تحدث فيها معظم التفاعلات.
الإشارات الرئيسية التي يحللها الخوارزمي:- مواضيع المحادثة: يحلل المواضيع المطروحة للبحث عن أنماط مرتبطة بمجموعات عمرية مختلفة.
- الأسلوب اللغوي والتعقيد: يقيم المفردات وهيكل الاستعلامات لاستنتاج النضج.
- جدول النشاط: يأخذ في الاعتبار الوقت من اليوم الذي يتفاعل فيه المستخدم بشكل أكثر تكرارًا.
الهدف هو إنشاء بيئة رقمية أكثر أمانًا، على الرغم من أن ذلك قد يحد أحيانًا من قدرات النموذج للمستخدمين الذين، رغم كونهم كبار السن، يظهرون أنماطًا يفسرها النظام على أنها شبابية.
الآثار على التفاعل
عندما يحدد النظام أنه من المحتمل أن يكون المستخدم أقل من 18 عامًا، يفعّل فلاتر حماية معززة تلقائيًا. هذا يعدّل التجربة، حيث يمكن للمساعد رفض الإجابة على أسئلة معينة أو تقديم إجابات أكثر عمومية وحذرًا.
تأثيرات تفعيل بروتوكولات الأمان:- يقيد النموذج الوصول إلى المحتوى الذي لا يعتبره مناسبًا للعمر المستنتج.
- يمكن أن تصبح الإجابات أكثر حذرًا وأقل تحديدًا.
- يُعطى الأولوية للأمان على فائدة المساعد الكاملة.
إمكانية الإيجابيات الكاذبة
هذه الأنظمة غير معصومة من الخطأ وقد تصنّف مستخدمين بالغين بشكل خاطئ. على سبيل المثال، قد يتلقى شخص كبير في السن يطرح أسئلة بسيطة في منتصف الليل معاملة مشابهة لتلك المقدمة لمراهق، مما يؤدي إلى إجابات محمية بشكل مفرط تبدو مستخرجة من دليل طفولي. تبرز هذه الحالة التوازن الهش بين الحماية وعدم التقييد غير الضروري. 🤖