Nel cuore della Silicon Valley, si consuma una frattura sempre più profonda tra innovazione tecnologica ed esigenze della sicurezza nazionale.
Una spaccatura che ha assunto i toni di una vera e propria rivolta, quando centinaia di dipendenti delle principali aziende di Intelligenza Artificiale hanno deciso di opporsi pubblicamente alle richieste del Pentagono. Un conflitto che, dietro le quinte, mette in discussione non solo il futuro dell’AI, ma anche il ruolo etico delle aziende che la sviluppano.
Tutto ha avuto inizio con una lettera aperta dal titolo “We Will Not Be Divided”, firmata da oltre 400 lavoratori di Google e OpenAI. Un documento che ha scosso l’intero settore, invitando le aziende a resistere alle pressioni del governo statunitense e a non cedere alla tentazione di fornire tecnologie senza limiti a fini militari. In questo scenario, si è distinta la posizione di Anthropic, guidata da Dario Amodei, che con parole ferme ha dichiarato: “We cannot in good conscience accede to their request”. Un messaggio chiaro, che ha segnato una linea di demarcazione netta tra etica e compromesso.
AI militare e Pentagono: una questione delicata
Al centro della controversia, emerge una questione che va ben oltre la singola partnership: la preoccupazione che le aziende vengano messe l’una contro l’altra, spinte dalla paura che i concorrenti possano accettare condizioni che altri rifiutano. Il governo americano, infatti, sta cercando di sfruttare questa dinamica per ottenere un accesso illimitato alle tecnologie di intelligenza artificiale più avanzate. E non si tratta solo di parole: il rischio concreto per chi si oppone è di essere etichettato come “supply chain risk”, con conseguenti penalizzazioni economiche e danni reputazionali.
La posizione di Anthropic è stata finora inflessibile: nessuna autorizzazione all’uso dei propri modelli per programmi che possano violare principi etici consolidati. Un approccio che, però, espone l’azienda a possibili ritorsioni da parte del governo, che può ricorrere a strumenti legislativi come il Defense Production Act per imporre la collaborazione delle imprese considerate strategiche per la sicurezza nazionale. La minaccia non è solo teorica: il Pentagono ha già dimostrato di essere disposto a esercitare forti pressioni per garantire la supremazia tecnologica americana.
Cina e altre potenze sullo sfondo
Ma il vero nodo della questione riguarda l’impiego dell’AI in ambiti particolarmente delicati. La comunità tecnologica teme una progressiva normalizzazione di pratiche come la sorveglianza di massa o lo sviluppo di armi autonome prive di supervisione umana. L’idea che sistemi intelligenti possano essere utilizzati per il controllo diffuso o per operazioni militari senza garanzie adeguate solleva interrogativi etici e legali di enorme portata. È qui che la voce dei dipendenti si fa sentire con maggiore forza, chiedendo limiti chiari e trasparenti all’uso delle tecnologie sviluppate.
L’AI militare non è però una prerogativa degli USA. Sullo sfondo, altre potenze come la Cina, restano in silenzio ma, con tutta probabilità, stanno già utilizzando queste tecnologie per scopi bellici. Di fatto, sembra essere stata avviata una spirale molto difficile da controllare.