La crescente pressione per la militarizzazione dell’Intelligenza Artificiale sta innescando una frattura senza precedenti tra giganti tecnologici e apparati governativi.
Al centro della disputa si trova un contratto da 200 milioni di dollari che rischia di saltare, mettendo a nudo le tensioni tra innovazione, responsabilità etica e potere statale. Il caso coinvolge direttamente il Dipartimento della Difesa USA e la società Anthropic, nota per il suo modello avanzato Claude, in una contesa che potrebbe ridefinire il rapporto tra tecnologia e sicurezza nazionale.
Nel luglio 2025, il Dipartimento della Difesa ha siglato accordi pluriennali con quattro fornitori di AI – Anthropic, OpenAI, Google e xAI – con l’obiettivo di integrare sistemi di AI all’avanguardia nelle strategie di sicurezza e nelle operazioni tattiche. Tuttavia, proprio la posizione intransigente di Anthropic ha acceso il conflitto: la società si è rifiutata di concedere un accesso illimitato al proprio modello Claude per scopi militari, ponendo un veto su sorveglianza massiva e armamenti completamente automatizzati.
L’operazione Madure e il ripensamento di Anthropic
Il clima si è ulteriormente surriscaldato dopo che alcune testate hanno collegato Claude a una controversa operazione Maduro – la presunta partecipazione del modello AI all’intervento statunitense per la cattura del presidente venezuelano Nicolás Maduro, avvenuta a gennaio 2026.
Secondo queste ricostruzioni, Claude sarebbe stato utilizzato in sinergia con Palantir, società specializzata in piattaforme di analisi dati, durante la fase operativa vera e propria. Anthropic ha però smentito ogni coinvolgimento diretto, dichiarando di aver discusso esclusivamente linee guida generali sull’uso della tecnologia, senza mai autorizzare operazioni specifiche. Questa posizione, tuttavia, non ha convinto i funzionari militari, che lamentano l’impossibilità di negoziare caso per caso a causa della vaghezza delle categorie proibite.
Per il Dipartimento della Difesa, la flessibilità operativa rappresenta una necessità imprescindibile: la capacità di adattare sistemi intelligenti alle esigenze di intelligence, logistica e supporto decisionale non può essere vincolata da restrizioni tecniche imposte unilateralmente dai fornitori.
In quest’ottica, il contratto prevede che le tecnologie siano disponibili per “tutte le applicazioni lecite”, incluse progettazione di sistemi d’arma, operazioni di spionaggio e attività tattiche sul terreno. Mentre OpenAI, Google e xAI hanno mostrato apertura al dialogo, Anthropic ha ribadito il proprio veto assoluto, ispirato da preoccupazioni etiche e reputazionali: la società mira a tutelare la propria immagine, evitando abusi che potrebbero minare la fiducia di clienti civili e partner commerciali.
La vicenda evidenzia un dilemma cruciale: chi stabilisce i confini d’uso di una tecnologia quando la domanda di capacità militari cresce esponenzialmente? Gli esperti sottolineano come la definizione stessa di termini come “massa”, “autonomia” e “arma” sia estremamente fluida, complicando l’applicazione di audit, garanzie contrattuali e limiti tecnici. Quando le integrazioni tra piattaforme – come nel caso di Palantir – sono profonde, anche i controlli più stringenti rischiano di risultare insufficienti.
Quali saranno le conseguenze?
Le conseguenze della rottura sarebbero significative. Una rescissione del contratto potrebbe rafforzare la posizione negoziale del governo, ma rischia di scoraggiare altre aziende tecnologiche dal partecipare al mercato della difesa, preoccupate per l’impossibilità di far valere principi etici in un contesto dominato da esigenze operative. D’altro canto, per molte realtà del settore, la definizione di vincoli morali all’uso bellico delle proprie tecnologie è ormai un elemento identitario irrinunciabile.
La sfida, oggi più che mai, è trovare un equilibrio tra esigenze strategiche e garanzie morali: attraverso controlli più rigorosi, definizioni tecniche più precise o modelli contrattuali ibridi. La vicenda del contratto tra Anthropic e il Dipartimento della Difesa non è solo uno scontro tra due visioni, ma apre interrogativi profondi su regolamentazione, governance e sul ruolo che imprese, stato e opinione pubblica dovranno condividere nella gestione dell’AI in ambito strategico.