La decisione di OpenAI di collaborare con il Dipartimento della Difesa degli Stati Uniti ha scatenato una reazione massiccia e immediata. Dopo l'annuncio, le disinstallazioni dell'applicazione mobile di ChatGPT negli Stati Uniti sono schizzate del 295%, rispetto a un tasso abituale del 9%. Questo voto con il dito digitale mostra come gli utenti trasformino i negozi di applicazioni in arene di protesta, utilizzando il loro potere di consumo per rifiutare alleanze che considerano eticamente discutibili.
Il dato tecnico: migrazione etica verso Claude 🤖
Le metriche rivelano un chiaro passaggio di utenti. Mentre i download di ChatGPT calavano del 13% e poi del 5%, quelli del suo concorrente Anthropic Claude crescevano del 37% e del 51% negli stessi periodi. Questo impulso ha portato Claude al primo posto nella classifica gratuita dell'App Store. La chiave del movimento è stata la dichiarazione pubblica di Anthropic che affermava di non collaborare con il Pentagono, citando preoccupazioni etiche su sorveglianza e armi autonome. I dati quantificano una migrazione basata sui valori.
L'attivismo di piattaforma come nuova norma ⚖️
Questo caso consolida la tecnologia di consumo come campo di battaglia ideologico. Ogni installazione o disinstallazione si trasforma in un atto politico, un gesto di arte attivista digitale che modella il mercato. La reazione costringe a ripensare il contratto sociale delle aziende di IA: gli utenti non sono meri consumatori, ma giudici etici che possono alterare il panorama competitivo overnight quando percepiscono un tradimento dei loro principi.
Può l'arte digitale attivista mantenere la sua credibilità etica utilizzando strumenti di IA le cui aziende collaborano con entità militari?
(PD: se la tua installazione di realtĂ virtuale non cambia il mondo, almeno che non dia lag)