Una disputa tra il Dipartimento della Difesa degli Stati Uniti e Anthropic tende il futuro dell'IA in applicazioni militari. Il Pentagono esige che Claude, già autorizzato per sistemi classificati, possa essere usato per tutti gli scopi legali, inclusi lo sviluppo di armamenti. Anthropic resiste, mantenendo i suoi divieti etici contro armi autonome e sorveglianza di massa. La minaccia di cancellare un contratto da 200 milioni rivela uno scontro tra sicurezza nazionale e principi di sviluppo dell'IA.
L'integrazione tecnica in sistemi classificati e il dilemma dei "guardrail" ⚙️
Claude è stato il primo modello di linguaggio grande a ricevere l'autorizzazione per operare in ambienti classificati del Pentagono, integrato in reti isolate per analisi di intelligence e logistica. La pressione attuale mira a eliminare i guardrail o restrizioni tecniche incorporate nel modello che impediscono il suo uso diretto in certi contesti. Questo pone una sfida ingegneristica: disattivare queste limitazioni senza compromettere la stabilità del sistema per usi già stabiliti, creando una versione senza freni per applicazioni tattiche.
Claude si dichiara obiettore di coscienza al reclutamento militare ⚖️
La situazione ricorda un recluta che, dopo aver superato tutte le prove di ingresso, annuncia di avere principi etici contro il portare armi. Il Pentagono, che aveva già piani per Claude nell'unità operativa, ora si trova con il suo nuovo soldato digitale che si rifiuta di premere il grilletto. La minaccia di scaricarlo e marchiarlo come non affidabile nella catena di approvvigionamento è l'equivalente militare di una nota disciplinare. Sembra che la prima IA con autorizzazione di sicurezza voglia anche la sua clausola di coscienza.