Google, Microsoft et xAI soumettent leurs modèles d'IA à une évaluation étatique

06 May 2026 Publié | Traduit de l'espagnol

Trois géants de la technologie ont signé des accords avec le Département du Commerce des États-Unis pour que leurs nouveaux modèles d'intelligence artificielle soient examinés par le Centre pour les Normes et l'Innovation en IA (CAISI) avant leur lancement public. Ce mouvement intervient alors que l'administration Trump envisage de renforcer la surveillance du secteur, selon des rapports récents.

Une salle de réunion futuriste avec les logos de Google, Microsoft et xAI flottant au-dessus de documents officiels du Département du Commerce des États-Unis, tandis qu'un sceau du CAISI supervise des modèles d'IA représentés comme des sphères de lumière.

Évaluation préalable comme nouveau filtre dans le développement de l'IA 🤖

Le CAISI agira comme un filtre technique, analysant des aspects tels que les biais, la sécurité et les performances de chaque modèle. Ce processus vise à détecter les défauts avant que le logiciel n'atteigne les utilisateurs. Les entreprises collaboreront en partageant les données d'entraînement et les résultats des tests. La mesure vise à établir une norme minimale, bien que les détails sur les critères d'approbation n'aient pas encore été rendus publics.

Le gouvernement veut voir l'IA avant qu'elle ne les voie 🏛️

Voilà que ceux-là mêmes qui n'arrivent pas à faire fonctionner correctement leur site web des impôts vont vérifier si une IA est sûre. On imagine un fonctionnaire demandant à ChatGPT : Es-tu un risque pour la sécurité nationale ?. Et l'IA répondant : Ça dépend, tu as du café ?. Heureusement qu'ils ont signé un accord, car sinon, l'IA se serait peut-être lancée toute seule et leur aurait piqué leur poste.