
xAIのGrokがAIによる画像編集を制限し、有料でも偽のヌードを防げない
企業xAIは、その人工知能プラットフォームGrokに対して断固たる決定を下しました。今、ユーザーがその技術を使って人々の写真を操作する方法を明確に制限しています。この措置は、許可なくdeepnudesや偽の親密なコンテンツを生成する悪意のある使用に対抗するためのものです。🛡️
虐待的な操作に対する技術的な障壁
Grokは、中心モデルにフィルターを直接実装し、人間の画像を不適切に変更しようとするリクエストを拒否します。これには、服を追加、削除、または変更することが含まれます。この決定は、効果的な保護を設計する方法についての業界全体の広範な議論に位置づけられています。他の企業、例えばOpenAIのDALL-E 3やMidjourneyも、この課題に対処し、同様のポリシーを適用しています。共通の目標は明確です:これらの強力なツールが嫌がらせや身元すり替えに使われるのを防ぐことです。
Grokが適用する主要なメカニズム:- リクエストのリアルタイム分析で、服装の変更意図を検出。
- システムが潜在的に虐待的と識別したコマンドの自動拒否。
- 個人の同意とプライバシーを優先する倫理的原則との整合。
この特定の機能を収益化するのは逆効果です。有料システムは、正当性の偽の感覚を生む可能性があります。
課金が解決策ではない理由
xAIの中心的な主張は、この能力に価格を設定しても根本的な問題は解決しないということです。有料モデルを導入すると、実際にはその慣行を正常化し、悪意ある者に経済的に容易にする可能性があります。さらに、明らかに虐待的な行為を単なる取引サービスに変えることになり、深刻な倫理的対立を引き起こします。因此、解決策は金銭でアクセスを規制することではなく、モデルの中核からこの種のタスクの技術的な実行を防ぐことです。
支払いベースのアプローチの問題点:- 有害な活動を商業サービスに変えることで正当化。
- 支払う用意のある悪意あるユーザーを抑止しない。
- 技術的な予防から虐待の収益化へ焦点をずらす。
先進AI時代における常識
このケースは、技術開発における重要な点を強調しています:ci