Tumbler Ridgeの学校での銃乱射事件の数ヶ月前、容疑者のJesse Van RootselaarがOpenAIで内部アラートを引き起こしました。複数の従業員が彼のChatGPTへの暴力的メッセージを現実的な前兆とみなし、当局への連絡を促しました。しかし、会社のリーダーたちはそれをせず、アカウントをブロックするだけに留めました。その後の悲劇で9人が死亡し、その決定の誤りが明らかになりました。
会話型AIのモデレーションシステムにおける技術的・倫理的ジレンマ 🤖
このケースは、会話型AIの安全プロトコルの限界を露呈しています。OpenAIのシステムは暴力的コンテンツを検知し内部アラートを生成する点で効果的でした。失敗は次の段階、人間の解釈と行動にありました。プライバシーポリシーと差し迫っていないリスク評価が優先され、外部の治安当局を巻き込んだ予防プロトコルは採用されませんでした。
AIは危険と言い、人間はコンテンツモデレーションで応じた ⚖️
パズルのすべてのピースを持っていながら、それらがうまく合わないと決める典型的なケースです。機械は仕事を果たし、現場の従業員も仕事を果たしました。しかし、難しい決定の部署に上がると、誰かがユーザーの会話のために警察を呼ぶのは過剰だと考えたのでしょう。デジタルブロックを好み、それは本物の銃弾に対する清潔だが無用の解決策です。問題を先送りするマスタークラスです。