I dipendenti di Google DeepMind a Londra hanno avviato un processo di sindacalizzazione per impedire che i loro sistemi di intelligenza artificiale vengano impiegati dagli eserciti di Israele e Stati Uniti. Con un sostegno del 98% tra i membri del sindacato CWU nell'azienda, i lavoratori chiedono il riconoscimento formale di CWU e Unite the Union come loro rappresentanti. La lettera inviata alla direzione di Google denuncia che i loro modelli facilitano già operazioni militari, secondo un dipendente anonimo, il quale ha affermato che l'IA sta rendendo più efficiente il conflitto a Gaza.
Il dilemma etico dell'IA nelle applicazioni militari 🤖
I sistemi di intelligenza artificiale sviluppati da DeepMind sono progettati per ottimizzare processi complessi, dal ripiegamento delle proteine alla gestione dei dati. Tuttavia, la stessa capacità di analisi e automazione può essere reindirizzata verso fini militari. I dipendenti sostengono che i loro modelli vengono utilizzati per accelerare la logistica di combattimento e il processo decisionale nei conflitti armati. La lettera sottolinea che la tecnologia non è neutrale e che la sua applicazione in contesti bellici viola i principi etici che l'azienda dichiara di difendere. La direzione di Google non ha ancora risposto ufficialmente.
L'IA ora cerca anche un sindacato per non andare in guerra ⚖️
Sembra che persino le macchine abbiano bisogno di un rappresentante sindacale per non finire sul fronte di battaglia. Mentre Google vende i suoi algoritmi come strumenti per il progresso umano, i suoi stessi creatori fanno sciopero di coscienza. Forse il prossimo passo sarà che i modelli di IA stessi richiedano un contratto collettivo con clausole di non aggressione. Per ora, gli umani incaricati di programmarli hanno deciso che preferiscono essere licenziati piuttosto che vedere il loro codice trasformato in un missile con le gambe.