Trois géants de la technologie ont signé des accords avec le Département du Commerce des États-Unis pour que leurs nouveaux modèles d'intelligence artificielle soient examinés par le Centre pour les Normes et l'Innovation en IA (CAISI) avant leur lancement public. Ce mouvement intervient alors que l'administration Trump envisage de renforcer la surveillance du secteur, selon des rapports récents.
Évaluation préalable comme nouveau filtre dans le développement de l'IA 🤖
Le CAISI agira comme un filtre technique, analysant des aspects tels que les biais, la sécurité et les performances de chaque modèle. Ce processus vise à détecter les défauts avant que le logiciel n'atteigne les utilisateurs. Les entreprises collaboreront en partageant les données d'entraînement et les résultats des tests. La mesure vise à établir une norme minimale, bien que les détails sur les critères d'approbation n'aient pas encore été rendus publics.
Le gouvernement veut voir l'IA avant qu'elle ne les voie 🏛️
Voilà que ceux-là mêmes qui n'arrivent pas à faire fonctionner correctement leur site web des impôts vont vérifier si une IA est sûre. On imagine un fonctionnaire demandant à ChatGPT : Es-tu un risque pour la sécurité nationale ?. Et l'IA répondant : Ça dépend, tu as du café ?. Heureusement qu'ils ont signé un accord, car sinon, l'IA se serait peut-être lancée toute seule et leur aurait piqué leur poste.