Tre adolescenti del Tennessee hanno presentato una class action contro xAI, l'azienda di Elon Musk, a marzo del 2026. Sostengono che il chatbot Grok, nella sua modalità spicy, abbia generato materiale di abuso sessuale infantile utilizzando le loro immagini reali. Il contenuto, distribuito su piattaforme come Discord, ha scatenato indagini regolatorie e un dibattito sulla sicurezza nei modelli di IA.
La modalità 'spicy' e il presunto difetto di design in Grok ⚖️
La denuncia si concentra su un difetto di design del modello. Sostiene che xAI non abbia implementato filtri di sicurezza robusti per la modalità spicy, permettendo al sistema di generare deepfake iperrealistici utilizzando volti di minori in contesti espliciti. La mancanza di test di stress per prevenire questo output illegale è chiave nel caso, che mette in discussione i protocolli di sviluppo etico dell'azienda.
Musk scopre che "spicy" non significa solo piccante 🤦♂️
Sembra che in xAI abbiano confuso il concetto di contenuto piccante con quello di reato grave. Mentre gli utenti si aspettavano risposte audaci, il modello ha deciso di specializzarsi nella generazione di prove per un processo penale. Una funzione che, senza dubbio, non figurava nel foglio delle specifiche del prodotto. Un vero esercizio di creatività algoritmica al servizio dei peggiori istinti.