호주 온라인 안전 위원회(Australian eSafety Commissioner)가 Roblox, Minecraft, Fortnite 및 Steam에 대해 법적 명령을 발부했습니다. 이들 플랫폼이 미성년자를 성범죄자와 온라인 급진화로부터 보호하기 위한 조치를 설명하도록 요구하고 있습니다. 이러한 지침을 준수하지 않는 기업은 벌금 및 민사 소송에 직면할 수 있으며, 이는 아동 안전에 대한 더 큰 투명성을 요구하는 움직임입니다.
실시간으로 수백만 건의 상호작용을 중재하는 기술적 과제 🛡️
Roblox나 Fortnite와 같은 플랫폼의 콘텐츠 중재는 AI 필터링 시스템과 인간 팀의 복잡한 시스템을 수반합니다. 실시간으로 수백만 건의 음성 및 텍스트 채팅을 분석하려면 자연어 처리 및 패턴 감지 알고리즘이 필요합니다. 과제는 게임 경험에 영향을 미치는 오탐지(false positives)를 생성하지 않으면서 무해한 언어와 약탈적 행동을 구별하는 데 있습니다. Steam은 개방형 시스템으로 인해 모든 게임 서버를 직접 제어하지 못하기 때문에 추가적인 어려움에 직면합니다.
모더들이 기업보다 보안에 더 기여한다는 아이러니 🔧
대기업들이 호주에 대응하기 위해 변호사를 고용하는 동안, 모더 커뮤니티는 수년간 자체 필터를 패치해 왔습니다. 일부 플레이어는 Minecraft에서 의심스러운 메시지를 차단하는 자체 제작 스크립트를 만들었고, Fortnite 서버에서는 무료 플러그인으로 채팅을 중재하는 곳도 있습니다. 아마도 해결책은 법적 보고서가 아니라, 기계식 키보드와 여유 시간을 가진 십대가 기업이 해결하지 못하는 문제를 고치도록 두는 것일지도 모릅니다.