Sorveglianza di massa e Big Tech: perché EFF dice “basta pressioni” sulle aziende

Il Dipartimento della Difesa USA chiede ad Anthropic di rimuovere limiti sull’uso militare della sua AI. In gioco contratti, sicurezza e governance dell’AI. Da parte sua, EFF contesta la posizione governativa e invita a cessare il pressing sulle aziende tecnologiche.

La pressione del Dipartimento della Difesa statunitense su Anthropic apre un fronte delicato nel rapporto tra industria dell’intelligenza artificiale e apparati militari. La società, fondata nel 2021 da ex ricercatori di OpenAI, si è costruita una reputazione sulla sicurezza dei modelli e sull’uso responsabile dei modelli AI generativi. Nel 2025 Anthropic è stata tra le prime aziende a ricevere l’autorizzazione ufficiale per gestire informazioni classificate, cioè dati sensibili soggetti a restrizioni legali di accesso e diffusione per motivi di sicurezza nazionale, un passaggio significativo in un contesto in cui il budget federale per l’AI supera ormai decine di miliardi di dollari annui.

L’ultimatum governativo emerso nel 2026, con la minaccia di etichettare l’azienda come rischio per la supply chain, evidenzia quanto le scelte etiche possano avere conseguenze operative e commerciali.

Il confronto tra Anthropic e il Pentagono

Il nodo del contendere riguarda due limiti che Anthropic ha reso pubblici: i suoi modelli non possono essere utilizzati per diverse attività, comprese alcune in ambito militare, e per la sorveglianza di massa.

Il Dipartimento della Difesa, secondo le informazioni circolate in queste ore, avrebbe chiesto di rimuovere tali restrizioni per consentire l’integrazione completa dei modelli nei sistemi militari.

In caso di rifiuto, l’azienda potrebbe essere classificata come “inadeguata” per la supply chain a livello nazionale, una designazione prevista nei processi di procurement federale che comporta l’esclusione da contratti e l’impossibilità per i fornitori della difesa di utilizzare le sue tecnologie.

L’abilitazione ottenuta nel 2025 per operazioni classificate implica che i sistemi di Anthropic rispettino standard di sicurezza come FedRAMP High e controlli derivati da framework come NIST SP 800-53. In questo contesto, modelli come Claude sono distribuiti in ambienti segregati con logging dettagliato, controlli di accesso granulari e audit trail crittografici.

Il ruolo della partnership con Palantir

La collaborazione con Palantir, azienda specializzata in piattaforme di analisi dati per la difesa, ha sollevato interrogativi sull’uso concreto dei modelli.

A gennaio 2026, Anthropic avrebbe sospettato che la propria tecnologia fosse stata impiegata durante l’attacco del 3 gennaio in Venezuela. In tali architetture, i modelli linguistici possono essere integrati in sistemi di intelligence per l’analisi di segnali, l’elaborazione di documenti o il supporto decisionale.

La presenza di LLM (Large Language Models) per finalità come quelle descritte consente di lavorare in modo più rapido ed efficiente, ma comporta anche il rischio di utilizzi impropri e di un’escalation automatizzata, cioè la possibilità che azioni o effetti si amplifichino e si propaghino senza un adeguato controllo umano.

Le linee rosse di Anthropic e la Constitutional AI

L’amministratore delegato di Anthropic, Dario Amodei, ha ribadito che l’azienda considera “red line” l’uso dei modelli per finalità discutibili.

Alla base vi è l’approccio Constitutional AI, una metodologia di addestramento che utilizza principi normativi per guidare il comportamento del modello, affiancata da tecniche di reinforcement learning from human feedback. Questi meccanismi cercano di prevenire output dannosi, ma non eliminano completamente la possibilità di abusi se i modelli sono integrati in sistemi più ampi senza adeguate salvaguardie.

EFF contro le pressioni del Pentagono: la posizione di Anthropic va difesa a tutti i costi

La posizione della Electronic Frontier Foundation (EFF) in questa vicenda si inserisce in una linea di pensiero secondo cui le aziende tecnologiche devono assumersi una responsabilità diretta nella tutela dei diritti civili quando sviluppano strumenti ad alto impatto sociale come i sistemi di intelligenza artificiale.

Nel caso specifico di Anthropic, EFF interpreta l’ultimatum del Dipartimento della Difesa non solo come una disputa commerciale o contrattuale, ma come un tentativo di ridefinire i confini etici entro cui l’AI può essere impiegata.

L’organizzazione richiama l’attenzione su due aspetti cruciali: da un lato, il fatto che Anthropic sia stata la prima azienda del settore ad ottenere l’autorizzazione per operare su informazioni classificate nel 2025; dall’altro, il sospetto che il suo modello sia già stato utilizzato, attraverso la collaborazione con Palantir, in operazioni militari. Questi elementi rendono ancora più delicata la scelta dell’azienda, perché dimostrano come il confine tra utilizzo civile e impiego militare sia già estremamente sottile.

Secondo EFF, la richiesta del governo statunitense di eliminare le restrizioni fissate da Anthropic non è un semplice aggiustamento operativo, ma un salto qualitativo che trasformerebbe Anthropic in un fornitore diretto di capacità di guerra algoritmica e di infrastrutture di controllo di massa.

EFF evidenzia inoltre come la posizione di Anthropic, espressa pubblicamente dal CEO Amodei, sia già in linea con standard internazionali emergenti sulla governance dell’AI, che tendono ad allontanare tutti i possibili utilizzi in ambiti ad alto rischio.

In questo senso, cedere alle pressioni governative significherebbe non solo contraddire gli impegni pubblici dell’azienda ma anche contribuire a indebolire gli sforzi globali di regolamentazione dell’AI, proprio nel momento in cui diverse giurisdizioni stanno cercando di definire limiti più stringenti.

Ti consigliamo anche

Link copiato negli appunti