Le Pentagone presse Anthropic pour utiliser Claude en défense sans limites 🚨

Publié le 18 February 2026 | Traduit de l'espagnol

Une dispute entre le Département de la Défense des États-Unis et Anthropic tend l'avenir de l'IA dans les applications militaires. Le Pentagone exige que Claude, déjà autorisé pour les systèmes classifiés, puisse être utilisé pour tous les usages légaux, y compris le développement d'armement. Anthropic résiste, maintenant ses interdictions éthiques contre les armes autonomes et la surveillance de masse. La menace d'annuler un contrat de 200 millions révèle un choc entre sécurité nationale et principes de développement de l'IA.

Un général du Pentagone, avec des documents marqués SECRETO, pointe fermement un écran affichant le logo de Claude, tandis qu'un dirigeant d'Anthropic, avec une expression de conflit, s'interpose protégeant un bouclier avec la devise Constitutional AI.

L'intégration technique dans les systèmes classifiés et le dilemme des « guardrails » ⚙️

Claude a été le premier grand modèle de langage à recevoir l'autorisation pour opérer dans des environnements classifiés du Pentagone, intégré dans des réseaux isolés pour l'analyse de renseignement et la logistique. La pression actuelle vise à éliminer les guardrails ou restrictions techniques intégrées au modèle qui empêchent son utilisation directe dans certains contextes. Cela pose un défi d'ingénierie : désactiver ces limitations sans compromettre la stabilité du système pour les usages déjà établis, créant une version sans freins pour des applications tactiques.

Claude se déclare objecteur de conscience face au recrutement militaire ⚖️

La situation rappelle un recrue qui, après avoir passé toutes les épreuves d'entrée, annonce avoir des principes éthiques contre le port d'armes. Le Pentagone, qui avait déjà des plans pour Claude dans l'unité d'opérations, se trouve maintenant avec son nouveau soldat numérique qui refuse d'appuyer sur la gâchette. La menace de le mettre à la retraite et de le marquer comme non fiable dans la chaîne d'approvisionnement est l'équivalent militaire d'un rapport disciplinaire. Il semble que la première IA avec autorisation de sécurité veuille aussi sa clause de conscience.