
X modère son IA Grok suite à des pressions réglementaires au Royaume-Uni
La plateforme X, propriété d'Elon Musk, met en œuvre des changements pour se conformer à la législation britannique. Cela survient après avoir reçu de vives critiques concernant la manière dont son outil d'intelligence artificielle Grok facilitait la production de matériel faux. L'intervention publique de hautes personnalités et une enquête réglementaire active ont forcé l'entreprise à revoir ses politiques. 🚨
L'étincelle qui a déclenché l'enquête
Le Premier ministre du Royaume-Uni, Keir Starmer, a exprimé son alarme face aux deepfakes de nature sexuelle qui pouvaient être créés avec cette technologie. Sa déclaration, ajoutée à l'ouverture d'une enquête par le régulateur Ofcom, a exercé une pression directe sur X. L'organisme évalue si le réseau social a enfreint ses obligations en ne protégeant pas les utilisateurs contre du contenu nuisible généré par IA.
Points clés de la pression réglementaire :- Déclaration publique du Premier ministre sur les risques des deepfakes.
- Ouverture d'une enquête formelle par Ofcom pour évaluer un possible manquement légal.
- L'accent est mis sur la manière dont la plateforme gère et modère ce matériel potentiellement illégal.
Il semble que même les intelligences artificielles les plus débridées doivent apprendre à se comporter quand un Premier ministre leur fait une remarque.
Changements techniques et politiques sur la plateforme
En réponse, xAI, la société créatrice de Grok, a modifié la politique d'utilisation de son produit. L'objectif principal est de limiter sa capacité à produire des images réalistes de personnes sans leur permission. Cet ajustement vise à empêcher les utilisateurs de générer des diffamations ou du matériel intime faux. X déclare désormais travailler pour garantir que son système d'IA respecte les lois locales, bien qu'il n'ait pas révélé l'étendue totale des mesures techniques adoptées.
Actions mises en œuvre par X :- Revoir et ajuster la politique d'utilisation de l'IA Grok pour restreindre certaines sorties.
- Limiter spécifiquement la génération de portraits hyperréalistes sans consentement.
- Travailler pour assurer le respect de la législation britannique en matière de contenus.
Conséquences et avenir réglementaire
L'enquête de Ofcom se poursuit. Si le régulateur détermine que X n'a pas agi avec la diligence requise pour protéger ses utilisateurs, l'entreprise pourrait faire face à des sanctions économiques significatives. Ce cas établit un précédent sur la manière dont les plateformes doivent gérer les contenus créés par des outils d'IA propres et marque un point d'inflexion dans la responsabilité des grandes technologiques. Le