Metaの監督委員会は、企業がAI生成コンテンツ、特にディープフェイクをモデレートするためのシステムが不十分であるとして、厳しい報告書を発行しました。これは、イランでの戦争のような紛争中に特に顕著です。イスラエルでの被害に関する偽のビデオを分析した後、この機関は緊急の改革を求めています。現在のモデルは、ユーザーの自己申告に大きく依存しており、Facebook、Instagram、Threadsなどのプラットフォームでの誤情報の急速な拡散に対して不適切であると指摘しています。
技術監査:フォレンジック検出からC2PAラベル付けへ 🔍
監督委員会の推奨事項は、ディープフェイクの完全な監査サイクルを扱っています。技術的には、プロアクティブな検出ツールの改善を求め、これは照明の不整合、皮膚のテクスチャ、または顔のジオメトリを分析できる高度なデジタルフォレンジックアルゴリズムに相当し、3D分析で使用されるものと類似しています。同時に、コンテンツの起源に関するメタデータを埋め込むデジタル公証人としてC2PA標準を推進しています。鍵は、このラベル付けが技術的なものではなく、アクセスしやすく明確であることです。これは、事前の手がかりなしに操作の逆エンジニアリングを行う現在のリアクティブな監査とは対照的です。
デジタル整合性のコミュニティ標準へ 🤝
AIコンテンツのための特定のコミュニティ標準の要求は、考察の中心です。単にアルゴリズムを改善するだけでなく、欺瞞的なディープフェイクとは何かを共同で定義し、どのレベルの操作が許容されるかを決定することが重要です。これにより、議論は技術的な領域から社会的領域に移行し、制裁の透明性が求められます。監査はMetaだけのタスクではなく、共有責任の枠組みとなり、C2PAラベル付けの明確さと高リスク警告がコミュニティとの重要なインターフェースとなります。
AIを使ってAIを検出しますか?