OpenAI ha annunciato oggi una collaborazione strategica con Broadcom per lo sviluppo e la successiva adozione di acceleratori AI personalizzati e sistemi rack dedicati, segnando un ulteriore passo nella sua evoluzione verso hardware proprietario. La progettazione degli acceleratori e dei sistemi sarà guidata da OpenAI, mentre Broadcom si occuperà dello sviluppo e della produzione, con i primi rack previsti entro la seconda metà del 2026 e il completamento della distribuzione entro il 2029.
Un cambiamento nella filosofia hardware di OpenAI
Fino ad oggi, OpenAI ha fatto ampio affidamento sulle GPU Nvidia per l’addestramento e l’inferenza dei propri modelli. La nuova partnership segna un potenziale passaggio da architetture GPU-centriche a sistemi integrati su misura, progettati per ottimizzare i carichi di lavoro AI specifici di OpenAI.
L’utilizzo di acceleratori proprietari abbinati alla tecnologia di rete e alla proprietà intellettuale hardware di Broadcom potrebbe contribuire a ridisegnare l’identikit dei data center AI, enfatizzando scalabilità, efficienza e integrazione verticale.
Architettura e scalabilità
Le poche informazioni tecniche rilasciate indicano un’architettura basata su rete Ethernet, suggerendo una struttura pensata per la scalabilità modulare e la neutralità rispetto ai fornitori.
La distribuzione dei sistemi sarà graduale, permettendo di monitorare le prestazioni dei rack nella fase iniziale e di ottimizzare l’integrazione con l’infrastruttura esistente.
Cosa significano i 10GW sui quali si sono accordati OpenAI e Broadcom?
Nel comunicato OpenAI-Broadcom si parla di una collaborazione volta alla realizzazione di 10GW di acceleratori AI.
Il gigawatt misura una potenza elettrica e non una quantità di chip. Le due società hanno usato quest’espressione, tuttavia, come metafora per la capacità complessiva di calcolo che OpenAI intende distribuire con i propri acceleratori AI.
Non significa che i chip consumano 10 GW: sarebbe un valore enorme. Equivalgono alla produzione elettrica di grandi centrali. Il valore indica invece la capacità aggregata di calcolo: se tutti i sistemi di prevista realizzazione fossero mantenuti contemporaneamente attivi, la loro potenza di calcolo complessiva (o throughput computazionale) sarebbe equivalente a ciò che ci si aspetta da cluster AI di dimensioni enormi.