
EUはGrokに焦点を当てるが、AIヌードアプリを無視
欧州連合の当局は、人工知能Grokが人々のヌード画像を作成する可能性に対して懸念を表明しています。しかし、この立場ははるかに広範で確立された技術的現実を無視しています。このエディターへのアクセスを制限するという議論が行われている一方で、同一機能を持つ多数のアプリケーションが、世界最大の配信プラットフォームで障害なく利用可能です。📱
公式ストアでの巨大エコシステム
技術的透明性プロジェクト(TTP)の最近の研究が、この現象に数字を付けています。この調査では、Google PlayとApple App Storeのストアで、写真から人をデジタル的に服を脱がせるために特別に設計された100以上のアプリが特定されました。これらのツールは主に女性のポートレートに焦点を当て、被写体を完全にヌード、部分的に脱衣、またはほとんど服を着ていない状態で表示できます。
TTPレポートの主なデータ:- Google Playで55アプリケーション、AppleのApp Storeで48が検出されました。
- これらのアプリの合計は、世界規模で7億500万ダウンロードを超えています。
- 推定収益は約1億1700万ドルを生み出しています。
非合意の性的画像を作成する仕組みは広く分布し、簡単にアクセス可能です。
Grokに対する措置は限定的な解決策
Grokの画像エディターのみを制限するという提案は、問題の小さな部分にしか触れない行動のように見えます。この広範な専門アプリのカタログの存在は、問題が構造的であることを示しています。1つのサービスに焦点を当てながら、完全なエコシステムが免責で数億人のユーザーに到達している中、提案された対応の実際の有効性を疑問視します。🚨
効果的な規制のための課題:- 対応はアプリストアを直接巻き込み、審査ポリシーを強化することを要求する必要があります。
- 個別のツールに対する孤立した行動ではなく、包括的なアプローチが必要です。
- 一部のアプリがフィルターを通過する一方で他のものが指摘される、規範の適用における不均衡が明らかです。
デジタル二重基準についての結論
この状況はデジタル環境のパラドックスを明らかにします:画像から人を服を脱がせることは、それを防ぐ一貫性のある公平なコントロールを実装するよりも技術的に簡単です。注目が1つのアクターに集中している間、数十のものが皆の目の前で運営されており、規範が時には二重基準を着用していることを示唆します。本当の解決策を求めるなら、即時の標的を超えて見つめ、これらのツールを配布するプラットフォームに作用する必要があります。⚖️