Tre giganti della tecnologia hanno firmato accordi con il Dipartimento del Commercio degli Stati Uniti affinché i loro nuovi modelli di intelligenza artificiale vengano esaminati dal Centro per gli Standard e l'Innovazione nell'IA (CAISI) prima del loro lancio pubblico. Questa mossa avviene mentre l'amministrazione Trump sta valutando di inasprire la supervisione del settore, secondo recenti rapporti.
Valutazione preventiva come nuovo filtro nello sviluppo dell'IA 🤖
Il CAISI agirà come un filtro tecnico, analizzando aspetti come pregiudizi, sicurezza e prestazioni di ciascun modello. Questo processo mira a rilevare i difetti prima che il software raggiunga gli utenti. Le aziende collaboreranno condividendo dati di addestramento e risultati dei test. La misura punta a stabilire uno standard minimo, sebbene i dettagli sui criteri di approvazione non siano ancora stati resi pubblici.
Il governo vuole vedere l'IA prima che lei veda loro 🏛️
Ora scopriamo che gli stessi che non riescono a far funzionare bene il loro sito web delle tasse andranno a verificare se un'IA è sicura. Uno immagina un funzionario che chiede a ChatGPT: Sei un rischio per la sicurezza nazionale?. E l'IA che risponde: Dipende, hai del caffè?. Meno male che hanno firmato un accordo, perché altrimenti l'IA si sarebbe lanciata da sola e gli avrebbe rubato il posto.