2017年、ペンタゴンはプロジェクト・メイベンを開始しました。これは、ドローンが撮影した膨大な量のビデオと画像を分析するために人工知能を活用するイニシアチブです。カトリーナ・マンスンの本は、主要な証言を通じて、このツールの進化を記録しています:初期のぎこちなさから、標的を識別し攻撃目標を提案できるシステムへの変貌まで。このクロニクルは技術的なものに留まらず、最も緊急な倫理的考察への扉を開きます:命を奪う決定を自動化すべきでしょうか?
支援から自律へ:技術的斜面 🤖
プロジェクト・メイベンの開発は、応用AIの典型的な軌跡を示しています。最初は支援システムとして始まり、数千時間の映像でオブジェクトを分類するフィルターとしてアナリストの認知負荷を軽減しました。しかし、その自然な進化により、より大きな自律性に向かい、戦闘サイクル内で標的の識別と提案機能を統合しました。マンスンはその運用展開を詳述し、このツールが目から、検知と潜在的な致死的行動の間の時間を短縮する積極的なコンポーネントへと移行し、人間の直接監督を徐々に侵食していく様子を示しています。
判断のないアルゴリズム:究極のリスク ⚖️
マンスンが明らかにする倫理的ジレンマの核心は、技術そのものではなく、委任です。アルゴリズムには人間の文脈、慈悲、過去に壊滅的なエスカレーションを防いできた最終的な判断が欠けています。攻撃サイクルを完全に自動化することは、データのみを処理し結果を考慮しないシステムに不可逆的な決定を委ねることを意味します。このケースは、デジタル時代における根本的な問いを投げかけます:高リスクの応用において、機械の自律性の越えられない線をどこに引くべきか?戦争の未来、そして私たちの人間性は、その答えにかかっています。
積極的なモデレーションは技術ブランドの認識にどのように影響しますか?