Tumbler Ridge के एक स्कूल में गोलीबारी से महीनों पहले, संदिग्ध Jesse Van Rootselaar ने OpenAI में आंतरिक अलर्ट उत्पन्न किए। कई कर्मचारियों ने माना कि उनके ChatGPT को भेजे गए हिंसक संदेश वास्तविक पूर्वसूचना थे और अधिकारियों से संपर्क करने का आग्रह किया। कंपनी के नेताओं ने ऐसा न करने का फैसला किया, केवल उनकी खाता को ब्लॉक कर दिया। उसके बाद की त्रासदी, जिसमें नौ मृत्यु हुईं, ने उस निर्णय की गलती को उजागर कर दिया।
AI मॉडरेशन सिस्टम का तकनीकी और नैतिक दुविधा 🤖
यह मामला बातचीत वाली AI में सुरक्षा प्रोटोकॉल की सीमाओं को उजागर करता है। OpenAI का सिस्टम हिंसक सामग्री का पता लगाने और आंतरिक अलर्ट उत्पन्न करने में प्रभावी था। विफलता अगले चरण में हुई: मानवीय व्याख्या और कार्रवाई में। गोपनीयता नीति और गैर-तत्काल जोखिम मूल्यांकन को प्राथमिकता दी गई, बजाय बाहरी सुरक्षा बलों को शामिल करने वाले रोकथाम प्रोटोकॉल के।
AI ने कहा खतरा और मनुष्यों ने जवाब दिया सामग्री मॉडरेशन ⚖️
यह पहेली के सभी टुकड़े होने और फैसला करने का क्लासिक मामला है कि वे अच्छी तरह फिट नहीं होते। मशीन ने अपना काम किया, आधार स्तर के कर्मचारियों ने अपना किया। लेकिन जटिल निर्णयों के विभाग तक पहुँचने पर, किसी ने सोचा होगा कि एक उपयोगकर्ता की बातचीतों के लिए पुलिस को कॉल करना अत्यधिक है। उन्होंने डिजिटल ब्लॉक को प्राथमिकता दी, जो एक वास्तविक गोली के खिलाफ उतनी ही साफ-सुथरी जितनी बेकार समाधान। समस्या को टालने की मास्टरक्लास।