OpenAI e Broadcom uniscono le forze per 10 GW di chip AI custom

OpenAI ha annunciato una partnership con Broadcom per progettare acceleratori AI personalizzati. L'azienda può volersi affrancare dalla stretta dipendenza dalle GPU Nvidia.

OpenAI ha annunciato oggi una collaborazione strategica con Broadcom per lo sviluppo e la successiva adozione di acceleratori AI personalizzati e sistemi rack dedicati, segnando un ulteriore passo nella sua evoluzione verso hardware proprietario. La progettazione degli acceleratori e dei sistemi sarà guidata da OpenAI, mentre Broadcom si occuperà dello sviluppo e della produzione, con i primi rack previsti entro la seconda metà del 2026 e il completamento della distribuzione entro il 2029.

Un cambiamento nella filosofia hardware di OpenAI

Fino ad oggi, OpenAI ha fatto ampio affidamento sulle GPU Nvidia per l’addestramento e l’inferenza dei propri modelli. La nuova partnership segna un potenziale passaggio da architetture GPU-centriche a sistemi integrati su misura, progettati per ottimizzare i carichi di lavoro AI specifici di OpenAI.

L’utilizzo di acceleratori proprietari abbinati alla tecnologia di rete e alla proprietà intellettuale hardware di Broadcom potrebbe contribuire a ridisegnare l’identikit dei data center AI, enfatizzando scalabilità, efficienza e integrazione verticale.

Architettura e scalabilità

Le poche informazioni tecniche rilasciate indicano un’architettura basata su rete Ethernet, suggerendo una struttura pensata per la scalabilità modulare e la neutralità rispetto ai fornitori.

La distribuzione dei sistemi sarà graduale, permettendo di monitorare le prestazioni dei rack nella fase iniziale e di ottimizzare l’integrazione con l’infrastruttura esistente.

Cosa significano i 10GW sui quali si sono accordati OpenAI e Broadcom?

Nel comunicato OpenAI-Broadcom si parla di una collaborazione volta alla realizzazione di 10GW di acceleratori AI.

Il gigawatt misura una potenza elettrica e non una quantità di chip. Le due società hanno usato quest’espressione, tuttavia, come metafora per la capacità complessiva di calcolo che OpenAI intende distribuire con i propri acceleratori AI.

Non significa che i chip consumano 10 GW: sarebbe un valore enorme. Equivalgono alla produzione elettrica di grandi centrali. Il valore indica invece la capacità aggregata di calcolo: se tutti i sistemi di prevista realizzazione fossero mantenuti contemporaneamente attivi, la loro potenza di calcolo complessiva (o throughput computazionale) sarebbe equivalente a ciò che ci si aspetta da cluster AI di dimensioni enormi.

Ti consigliamo anche

Link copiato negli appunti