유럽연합(EU)이 디지털 남용에 대한 강력한 조치를 준비하고 있습니다. 새로운 규정은 동의 없는 성적 딥페이크(deepfake) 금지를 확대하여 인공지능이 생성한 아동 성적 학대 자료(CSAM)를 명시적으로 포함시킬 예정입니다. 이는 생성 당시 실제 피해자가 없어도 불법 콘텐츠를 만들 수 있는 기술의 길을 막으려는 시도입니다.
생성과 탐지의 도구로서의 AI 🤖
입법 제안은 플랫폼이 이러한 합성 자료를 식별할 수 있는 중재 시스템을 의무적으로 도입하도록 할 것입니다. 실제 학대 데이터로 훈련된 생성 모델은 인식 가능한 패턴을 복제하는 이미지를 생성합니다. 탐지를 위해 메타데이터 분석 도구와 디지털 워터마크가 고려되고 있습니다. 기술적 과제는 막대합니다. AI가 생성한 이미지와 실제 사진이 유사한 장면을 보여줄 때 이를 구별하는 것입니다.
악의적인 의도를 가진 디지털 아티스트의 역설 🎭
이제 딥페이크 제작자들은 다른 생계 수단을 찾아야 할 것입니다. 아마도 조잡한 포토샵 시절로 돌아가야 할지도 모릅니다. 왜냐하면 네, AI 이전에도 합성 사진은 존재했지만, 몇 시간의 작업과 세부 사항에 대한 애정이 필요했기 때문입니다. EU는 이렇게 말하는 셈입니다: 범죄자가 되려면 적어도 시간과 노력이 들게 하라, 예쁜 인터페이스에 프롬프트 하나 입력하는 것만으로는 안 된다 😈