Tumbler Ridge 학교 총격 사건 몇 달 전, 용의자 Jesse Van Rootselaar가 OpenAI에서 내부 경고를 발생시켰습니다. 여러 직원들은 그가 ChatGPT에 보낸 폭력적인 메시지가 실제 전조라고 판단하고 당국에 연락할 것을 촉구했습니다. 회사 지도자들은 그렇게 하지 않기로 결정하고 그의 계정만 차단했습니다. 이후 발생한 9명 사망의 비극은 그 결정의 오류를 드러냈습니다.
대화형 AI의 안전 프로토콜의 기술적·윤리적 딜레마 🤖
이 사례는 대화형 AI의 안전 프로토콜의 한계를 드러냅니다. OpenAI의 시스템은 폭력적인 콘텐츠를 효과적으로 감지하고 내부 경고를 생성했습니다. 실패는 다음 단계에서 발생했습니다: 인간의 해석과 행동. 프라이버시 정책과 즉각적이지 않은 위험 평가가 외부 보안 기관을 포함한 예방 프로토콜보다 우선되었습니다.
AI는 위험이라고 말했지만 인간들은 콘텐츠 조절로 대응했다 ⚖️
퍼즐의 모든 조각을 가지고 있으면서도 잘 맞지 않는다고 결정하는 전형적인 사례입니다. 기계는 자신의 일을 했고, 현장 직원들도 자신의 일을 했습니다. 하지만 어려운 결정 부서에 도착하자 누군가는 사용자 대화 때문에 경찰에 전화하는 것이 과도하다고 생각했을 것입니다. 그들은 디지털 차단을 선호했는데, 이는 실제 총알에 대해 깨끗하지만 무의미한 해결책입니다. 문제를 떠넘기는 마스터클래스입니다.