AI ed esercito USA: un generale ammette di usarla per migliorare il processo decisionale

L'Eighth Army USA integra ChatGPT e LLM per la logistica e il supporto decisionale. I vertici cercano equilibrio tra innovazione e sicurezza.
AI ed esercito USA: un generale ammette di usarla per migliorare il processo decisionale

Nel cuore della penisola coreana, tra briefing riservati e schermi digitali, una rivoluzione silenziosa sta cambiando il volto della strategia militare americana.

Il generale William “Hank” Taylor, comandante della Eighth Army statunitense, lo ammette senza mezzi termini di affidarsi a ChatGPT durante il suo lavoro. Un’affermazione che fotografa con precisione l’integrazione crescente dell’AI nell’ambito militare nei processi decisionali quotidiani, segnando una svolta nella gestione delle operazioni e nella cultura organizzativa delle forze armate.

L’introduzione di chatbot avanzati e sistemi AI all’interno dell’Eighth Army rappresenta un punto di non ritorno per la difesa americana. Questi strumenti, spesso basati su modelli linguistici di nuova generazione come ChatGPT, vengono ormai utilizzati per una vasta gamma di attività: dalle analisi predittive alla pianificazione delle missioni, dalla stesura di report complessi all’ottimizzazione delle risorse logistiche. Tuttavia, il principio fondamentale rimane invariato: il controllo umano sulle decisioni finali è imprescindibile, e l’AI resta un supporto, non un sostituto.

L’AI diventa uno strumento essenziale per gli eserciti

Un recente studio condotto da OpenAI nel 2025 conferma la portata di questo cambiamento: circa il 15% delle interazioni professionali con ChatGPT è legato a processi decisionali e alla risoluzione di problemi. In ambito militare, l’AI si distingue soprattutto per la sua capacità di fornire previsioni logistiche dettagliate, automatizzare compiti ripetitivi e affinare l’analisi intelligence, contribuendo così a un aumento tangibile dell’efficienza operativa.

Il Dipartimento della Difesa americano, consapevole delle potenzialità e dei rischi di questa tecnologia, sta ampliando l’impiego dell’AI militare in numerosi settori. L’Army Enterprise LLM Workspace, ad esempio, è ormai un punto di riferimento per le attività amministrative, mentre i sistemi di puntamento assistiti dall’AI sono diventati parte integrante delle operazioni con droni.

In parallelo, il Dipartimento di Stato ha emanato linee guida stringenti per garantire che l’uso dell’AI rispetti criteri di etica e legalità, vietando in modo esplicito la delega di decisioni letali alle macchine in assenza di supervisione umana.

Nonostante il clima di entusiasmo, permangono preoccupazioni fondate. Gli esperti mettono in guardia contro i rischi legati alle cosiddette allucinazioni dei modelli e alla tendenza a riflettere i pregiudizi degli utenti. Leonel Garciga, Chief Information Officer dell’Esercito, sottolinea la necessità di un approccio critico: in molti casi, esistono soluzioni più semplici ed economiche rispetto all’adozione massiva di strumenti basati sull’AI. L’affidabilità delle analisi, infatti, dipende dalla qualità dei dati e dalla capacità di integrare la supervisione umana in ogni fase del processo.

Sul piano normativo, OpenAI ha recentemente rivisto le proprie policy, rimuovendo il divieto generale sull’uso militare di ChatGPT pur mantenendo chiare restrizioni sullo sviluppo di armi autonome. Questo aggiornamento ha dato nuovo slancio all’adozione di Large Language Models nei contesti governativi e di difesa, accelerando la trasformazione digitale delle istituzioni e ampliando le possibilità di impiego dell’intelligenza artificiale.

Ti consigliamo anche

Link copiato negli appunti