ओपनएआई ने टम्बलर रिज के गोलीबाज की धमकियाँ पकड़ीं लेकिन पुलिस को सूचना नहीं दी 😱

2026 February 21 | स्पेनिश से अनुवादित

Tumbler Ridge के एक स्कूल में गोलीबारी से महीनों पहले, संदिग्ध Jesse Van Rootselaar ने OpenAI में आंतरिक अलर्ट उत्पन्न किए। कई कर्मचारियों ने माना कि उनके ChatGPT को भेजे गए हिंसक संदेश वास्तविक पूर्वसूचना थे और अधिकारियों से संपर्क करने का आग्रह किया। कंपनी के नेताओं ने ऐसा न करने का फैसला किया, केवल उनकी खाता को ब्लॉक कर दिया। उसके बाद की त्रासदी, जिसमें नौ मृत्यु हुईं, ने उस निर्णय की गलती को उजागर कर दिया।

Un hombre escribe mensajes violentos en ChatGPT, mientras en segundo plano, empleados de OpenAI debaten frenéticamente sin llamar a la policía.

AI मॉडरेशन सिस्टम का तकनीकी और नैतिक दुविधा 🤖

यह मामला बातचीत वाली AI में सुरक्षा प्रोटोकॉल की सीमाओं को उजागर करता है। OpenAI का सिस्टम हिंसक सामग्री का पता लगाने और आंतरिक अलर्ट उत्पन्न करने में प्रभावी था। विफलता अगले चरण में हुई: मानवीय व्याख्या और कार्रवाई में। गोपनीयता नीति और गैर-तत्काल जोखिम मूल्यांकन को प्राथमिकता दी गई, बजाय बाहरी सुरक्षा बलों को शामिल करने वाले रोकथाम प्रोटोकॉल के।

AI ने कहा खतरा और मनुष्यों ने जवाब दिया सामग्री मॉडरेशन ⚖️

यह पहेली के सभी टुकड़े होने और फैसला करने का क्लासिक मामला है कि वे अच्छी तरह फिट नहीं होते। मशीन ने अपना काम किया, आधार स्तर के कर्मचारियों ने अपना किया। लेकिन जटिल निर्णयों के विभाग तक पहुँचने पर, किसी ने सोचा होगा कि एक उपयोगकर्ता की बातचीतों के लिए पुलिस को कॉल करना अत्यधिक है। उन्होंने डिजिटल ब्लॉक को प्राथमिकता दी, जो एक वास्तविक गोली के खिलाफ उतनी ही साफ-सुथरी जितनी बेकार समाधान। समस्या को टालने की मास्टरक्लास।