La relazione tra produttori di hardware e sviluppatori di modelli di intelligenza artificiale è diventata uno dei fattori fondanti dell’industria AI. La decisione di Nvidia di ridurre il proprio coinvolgimento azionario in OpenAI e Anthropic arriva in un momento di espansione senza precedenti degli investimenti nel settore, con operazioni finanziarie che superano i cento miliardi di dollari e progetti infrastrutturali da gigawatt dedicati all’addestramento di modelli linguistici avanzati. Il tema non riguarda soltanto la strategia finanziaria di una singola azienda: coinvolge la struttura economica dell’intero mercato AI, la dipendenza dai chip acceleratori e il rapporto tra ricerca, geopolitica e sicurezza nazionale.
A marzo 2026, durante la conferenza Morgan Stanley Technology, Media and Telecom di San Francisco, il CEO di Nvidia Jensen Huang ha dichiarato che le recenti partecipazioni nella startup OpenAI e nella rivale Anthropic potrebbero rappresentare gli ultimi investimenti della società in entrambe le aziende. L’argomentazione ufficiale fa riferimento alla possibile quotazione in borsa delle due società, evento che ridurrebbe lo spazio per ulteriori investimenti privati. Tuttavia il contesto economico e tecnologico nel quale avviene questa scelta suggerisce dinamiche più complesse legate alle infrastrutture AI e ai finanziamenti nel settore.
I sontuosi investimenti nell’AI generativa
La corsa alla costruzione di modelli AI ha generato una domanda crescente di capitale. Il caso più emblematico è rappresentato dal finanziamento record da 110 miliardi di dollari raccolto da OpenAI nel 2026, uno dei più grandi round privati mai registrati nel settore tecnologico.
L’operazione ha coinvolto investitori industriali come Amazon, SoftBank e Nvidia stessa, con quest’ultima impegnata per circa 30 miliardi di dollari. La valutazione della società ha raggiunto circa 840 miliardi di dollari, dimostrando la scala economica ormai raggiunta dall’industria dei modelli generativi.
La dimensione finanziaria è direttamente collegata al costo dell’infrastruttura computazionale. L’addestramento dei modelli linguistici di ultima generazione richiede cluster GPU con potenze energetiche paragonabili a quelle di interi distretti industriali.
Gli accordi tra Nvidia e OpenAI prevedevano originariamente la costruzione di data center AI per una capacità complessiva di almeno 10 gigawatt, una potenza paragonabile alla produzione energetica delle più grandi dighe idroelettriche. L’investimento avrebbe dovuto essere compensato dall’acquisto di hardware Nvidia destinato ai cluster di calcolo necessari per addestramento e inferenza.
Il modello economico della “circolarità” tra investimenti e hardware
Una delle peculiarità dell’industria AI contemporanea consiste nella struttura circolare dei finanziamenti. Un produttore di chip può investire direttamente in una startup che, a sua volta, utilizza il capitale raccolto per acquistare hardware dallo stesso produttore.
Nel caso delle partnership tra Nvidia e i laboratori di AI, questo meccanismo ha generato una situazione in cui il capitale investito ritorna parzialmente all’investitore sotto forma di ordini per acceleratori grafici e sistemi di calcolo.
La strategia è resa possibile dal ruolo dominante di Nvidia nel mercato degli acceleratori per machine learning. Architetture GPU specializzate e piattaforme software come CUDA, insieme a librerie come cuDNN e TensorRT, costituiscono lo standard de facto per l’addestramento di reti neurali su larga scala. L’accesso a grandi cluster basati su queste tecnologie rappresenta uno dei principali colli di bottiglia nello sviluppo di modelli generativi avanzati.
Per le aziende che sviluppano AI, ottenere capacità computazionale è spesso più importante dell’investimento azionario in sé. L’accordo finanziario può quindi essere interpretato come un modo per assicurarsi accesso preferenziale all’hardware necessario per addestrare modelli sempre più grandi, riducendo i tempi di provisioning di GPU e infrastrutture.
Il ridimensionamento dell’investimento da 100 a 30 miliardi
Nel 2025 era stata ipotizzata una collaborazione molto più ambiziosa tra Nvidia e OpenAI. Il piano iniziale prevedeva un investimento progressivo fino a 100 miliardi di dollari, destinato a sostenere la costruzione di nuovi supercomputer AI e data center dedicati all’addestramento di modelli sempre più complessi. Tale schema prevedeva finanziamenti in tranche collegati all’attivazione progressiva delle infrastrutture energetiche e computazionali.
La struttura finale dell’operazione si è rivelata più contenuta. L’impegno definitivo di Nvidia si è fermato a circa 30 miliardi, inseriti nel maxi-round di finanziamento del 2026. L’azienda ha indicato come principale motivazione l’avvicinarsi di una possibile collocazione in borsa di OpenAI, che renderebbe più difficile effettuare nuovi investimenti privati su scala simile.
Gli osservatori del settore evidenziano tuttavia che gli investimenti nelle grandi aziende tecnologiche spesso continuano fino a ridosso della quotazione in borsa. La spiegazione formale potrebbe quindi non essere l’unico fattore alla base della decisione.
Il caso Anthropic e le tensioni con il governo statunitense
Parallelamente alla collaborazione con OpenAI, Nvidia ha investito circa 10 miliardi di dollari nella società Anthropic, laboratorio AI fondato da ex ricercatori OpenAI e nota per il modello linguistico Claude. Anche questo investimento, secondo le dichiarazioni di Huang, potrebbe essere l’ultimo.
La relazione tra Anthropic e le istituzioni governative statunitensi ha attraversato una fase di forte tensione nel 2026. L’azienda ha rifiutato di rimuovere alcune limitazioni presenti nelle policy del proprio modello, che vietano l’uso diretto dell’AI per sistemi di sorveglianza di massa o per usi spiccatamente militari. La posizione ha portato alla rottura di un contratto con il Dipartimento della Difesa e alla minaccia di esclusione della società dalla supply chain federale.
Il conflitto ha avuto conseguenze inattese anche sul piano commerciale. L’attenzione mediatica ha contribuito a una rapida crescita nell’adozione dell’app Claude, che ha raggiunto la prima posizione tra le applicazioni gratuite sull’App Store statunitense, superando temporaneamente ChatGPT nelle classifiche di download.
La competizione geopolitica attorno all’infrastruttura AI
Le scelte strategiche dei produttori di hardware non possono essere comprese senza considerare la dimensione geopolitica della tecnologia AI. I sistemi di addestramento richiedono semiconduttori avanzati e capacità energetica massiva, elementi che stanno diventando risorse strategiche nella competizione tecnologica globale.
Gli USA hanno introdotto restrizioni sempre più severe sull’esportazione di GPU ad alte prestazioni verso alcuni Paesi, mentre le aziende tecnologiche cercano di bilanciare rapporti commerciali, normative sulla sicurezza nazionale e richieste dei clienti istituzionali. In questo scenario, investire direttamente nelle aziende che sviluppano modelli AI può generare vantaggi strategici ma anche potenziali conflitti di interesse.
Per Nvidia, il core business rimane la vendita di acceleratori grafici e piattaforme di calcolo. Le startup AI rappresentano contemporaneamente partner tecnologici, clienti e destinatari di investimenti finanziari. L’equilibrio tra questi ruoli è delicato: un coinvolgimento finanziario troppo esteso potrebbe creare, a Nvidia, frizioni con altri clienti o con i regolatori.
La scelta di limitare ulteriori investimenti diretti non implica un ridimensionamento della presenza di Nvidia nel settore dell’intelligenza artificiale. Al contrario, la crescita dei modelli generativi sta aumentando la domanda globale di acceleratori GPU, sistemi di networking ad alta velocità e infrastrutture di calcolo distribuito.