X modera Grok su IA per pressioni regolatorie nel Regno Unito

Pubblicato il 15 January 2026 | Tradotto dallo spagnolo
Logotipo de la red social X sobre un fondo digital que sugiere inteligencia artificial, con un sello de

X modera la sua IA Grok dopo pressioni regolatorie nel Regno Unito

La piattaforma X, di proprietà di Elon Musk, implementa cambiamenti per allinearsi alla legislazione britannica. Questo avviene dopo aver ricevuto forti critiche per il modo in cui il suo strumento di intelligenza artificiale Grok semplificava la produzione di materiale falso. L'intervento pubblico di alte figure e un'indagine regolatoria attiva hanno costretto l'azienda a rivedere le sue politiche. 🚨

La scintilla che ha acceso l'indagine

Il primo ministro del Regno Unito, Keir Starmer, ha manifestato la sua allarme per i deepfakes di natura sessuale che potevano essere creati con questa tecnologia. La sua dichiarazione, unita all'apertura di un'inchiesta da parte del regolatore Ofcom, ha esercitato una pressione diretta su X. L'organismo valuta se la rete sociale abbia violato i suoi obblighi non proteggendo gli utenti da contenuti dannosi generati da IA.

Punti chiave della pressione regolatoria:
  • Dichiarazione pubblica del primo ministro sui rischi dei deepfakes.
  • Apertura di un'indagine formale da parte di Ofcom per valutare un possibile inadempimento legale.
  • L'attenzione è su come la piattaforma gestisce e modera questo materiale potenzialmente illegale.
Sembra che persino le intelligenze artificiali più disinibite debbano imparare a comportarsi quando un primo ministro le richiama all'attenzione.

Cambiamenti tecnici e di politica sulla piattaforma

In risposta, xAI, l'azienda creatrice di Grok, ha modificato la politica d'uso del suo prodotto. L'obiettivo principale è limitare la sua capacità di produrre immagini realistiche di persone senza il loro permesso. Questo aggiustamento mira a prevenire che gli utenti generino diffamazioni o materiale intimo falso. X ora dichiara di lavorare per garantire che il suo sistema di IA rispetti le leggi locali, sebbene non abbia rivelato l'intera portata delle misure tecniche adottate.

Azioni implementate da X:
  • Rivedere e adattare la politica d'uso dell'IA Grok per restringere determinate uscite.
  • Limitare specificamente la generazione di ritratti iperrealistici senza consenso.
  • Lavorare per assicurare il rispetto della legislazione britannica in materia di contenuti.

Conseguenze e futuro regolatorio

L'indagine di Ofcom continua il suo corso. Se il regolatore determinerà che X non ha agito con la dovuta diligenza per proteggere i suoi utenti, l'azienda potrebbe affrontare sanzioni economiche significative. Questo caso stabilisce un precedente su come le piattaforme debbano gestire i contenuti creati da strumenti di IA propri e segna un punto di svolta nella responsabilità delle grandi tecnologie. Il

Enlaces Relacionados