شهورًا قبل إطلاق النار في مدرسة تامبلر ريدج، أثار المشتبه به، جيسي فان روتسيلار، إنذارات داخلية في OpenAI. اعتبر العديد من الموظفين أن رسائله العنيفة إلى ChatGPT كانت مقدمة حقيقية وحثوا على الاتصال بالسلطات. قرر قادة الشركة عدم القيام بذلك، محظورين حسابه فقط. كشفت الكارثة اللاحقة، التي أودت بحياة تسعة أشخاص، عن خطأ تلك القرار.
المعضلة التقنية والأخلاقية لأنظمة الاعتدال في الذكاء الاصطناعي 🤖
يكشف الحالة عن حدود بروتوكولات السلامة في الذكاء الاصطناعي الحواري. كان نظام OpenAI فعالًا في اكتشاف المحتوى العنيف وتوليد إنذار داخلي. حدث الفشل في الخطوة التالية: التفسير البشري والعمل. تم إعطاء الأولوية لسياسة الخصوصية وتقييم مخاطر غير وشيكة على بروتوكول وقائي يشمل قوات الأمن الخارجية.
قالت الذكاء الاصطناعي خطر ورد البشر اعتدال المحتوى ⚖️
إنه الحالة الكلاسيكية لامتلاك جميع قطع اللغز وقرر أنها لا تتناسب جيدًا. قامت الآلة بعملها، قام الموظفون الأساسيون بعملهم. لكن عند الوصول إلى قسم القرارات المعقدة، يجب أن يكون شخص ما قد اعتقد أن الاتصال بالشرطة بسبب محادثات مستخدم كان مفرطًا. فضلوا الحظر الرقمي، حلاً نظيفًا مثل عديم الفائدة ضد رصاصة حقيقية. درس رئيسي في تمرير المشكلة.