Negli ultimi giorni numerosi titoli di testate tecnologiche statunitensi hanno riportato che Intel “inizierà a produrre GPU” per competere con la NVIDIA e AMD nel mercato delle schede grafiche dedicate, soprattutto in settori come il gaming e l’intelligenza artificiale. Ma Intel non produceva già GPU? La società di Santa Clara “ha scherzato” quando ha sviluppato e poi immesso sul mercato Iris Xe o Intel Arc?
Niente di tutto questo. L’annuncio reso dal CEO di Intel Lip-Bu Tan riflette un cambio di strategia e di portata rispetto alle GPU realizzate finora. Durante il Cisco AI Summit, Tan ha dichiarato ufficialmente che l’azienda intende sviluppare e “costruire” GPU in modo più sistematico e su larga scala come prodotto al centro del suo core business, con team e dirigenti dedicati a questo compito. L’obiettivo è competere soprattutto nei segmenti AI e data center.
Le GPU esistenti di Intel: integrate e discrete
Per comprendere appieno la novità, è importante distinguere tra tipi di GPU.
Fin dai chip della serie Core, Intel ha inserito grafica integrata all’interno della CPU, inizialmente sotto il nome Intel Graphics/Iris Xe, ora evoluta con architetture come Xe3 nei più recenti processori. Queste GPU sono parte integrante dei chip e non si basano su una scheda grafica separata.
A partire dal 2022 Intel ha lanciato la sua linea di schede grafiche dedicate Intel Arc, progettate per competere nel gaming, nel contenuto creativo e in alcune applicazioni professionali. Queste GPU sono realizzate da Intel ma prodotte sotto contratto da TSMC, spalmate inoltre su diverse categorie (Arc 3, Arc 5, Arc 7).
Il termine “GPU” non è quindi certamente nuovo nel portafoglio Intel: l’azienda ha già prodotto soluzioni grafiche sia integrate sia discrete.
Gaudi: perché conta (e perché non basta)
L’offerta Intel Gaudi nasce dall’acquisizione di Habana Labs nel 2019. Non sono GPU in senso stretto, ma acceleratori AI dedicati, progettati fin dall’inizio per il training e l’inferenza di modelli di deep learning nei data center.
Con Gaudi 1 (2019), Intel ha iniziato a proporre un’alternativa concettuale alle GPU NVIDIA: meno general purpose, più focalizzata sull’AI, con un’architettura pensata per scalare in cluster grazie a interconnessioni ad alta velocità basate su Ethernet standard, invece di link proprietari.
Il vero salto è arrivato con Gaudi 2 (2022), che ha migliorato sensibilmente potenza di calcolo per training AI, banda di memoria (HBM), efficienza energetica, integrazione in sistemi server completi.
Intel ha poi svelato Gaudi 3 (2024), presentandola come un ulteriore passo avanti in termini di prestazioni AI, efficienza energetica e competitività rispetto alle GPU NVIDIA di fascia alta. Gaudi 3 migliora ulteriormente la capacità di calcolo per modelli di grandi dimensioni, l’uso della memoria, il supporto ai workload di training e inferenza generativa.
Tuttavia, Gaudi 3 non cambia la natura del prodotto. Resta un acceleratore specializzato, pensato per scenari AI ben definiti, e non una GPU in grado di diventare il centro di un ecosistema computazionale ampio.
I limiti di Gaudi: software, timing e posizionamento
A distanza di anni, Gaudi non è mai riuscita a imporsi come alternativa credibile su larga scala.
Il primo limite è stato il software. Gaudi ha puntato fin dall’inizio su un ecosistema più aperto, basato su framework standard come PyTorch e TensorFlow, evitando la creazione di uno stack proprietario chiuso sul modello CUDA. Una scelta razionale, ma che si è scontrata con la realtà del mercato: CUDA non è solo una piattaforma di sviluppo, è uno standard de facto, con anni di ottimizzazioni, librerie, tool di profiling e competenze già presenti nei team AI. Convincere aziende e hyperscaler a riscrivere, adattare o riottimizzare i propri modelli per Gaudi si è rivelato molto più difficile del previsto.
Gaudi 1, inoltre, è arrivata quando NVIDIA aveva già consolidato la propria leadership, e Gaudi 2, pur rappresentando un netto miglioramento, è giunta in un momento in cui il mercato AI stava accelerando a una velocità senza precedenti. In questo contesto, molti clienti hanno preferito affidarsi a una piattaforma percepita come “sicura”, stabile e matura.
Inoltre, lo ribadiamo, Gaudi è un acceleratore AI puro: eccelle nel training e nell’inferenza, ma non è una GPU general purpose. Non copre il mondo HPC tradizionale, non ha applicazioni nel visual computing, non si integra in modo naturale in piattaforme eterogenee CPU+GPU come quelle costruite da NVIDIA.
Per non parlare poi dei problemi interni che Intel ha vissuto in passato e che il nuovo timoniere Tan sembra essersi finalmente messo alle spalle.
Cosa cambia con l’annuncio del CEO di Intel
Le dichiarazioni rese da Tan lasciano intendere un deciso cambio di rotta, con un’offerta di GPU adatta all’addestramento e all’accelerazione di modelli di intelligenza artificiale.
Il nuovo sforzo messo in campo da Intel include quindi architetture e GPU che potrebbero competere direttamente con prodotti high-end di NVIDIA e AMD, non solo soluzioni entry-level o mainstream. Il “nuovo inizio” è più un’accelerazione e un ampliamento delle ambizioni di Intel nel settore GPU piuttosto che l’ingresso in un mercato totalmente sconosciuto.
Perché Tan parla di “competere con NVIDIA” nonostante la collaborazione
La storica collaborazione tra Intel e NVIDIA, annunciata a settembre 2024, rappresenta uno degli accordi industriali più rilevanti degli ultimi anni nel settore dei semiconduttori, soprattutto perché coinvolge due aziende storicamente concorrenti.
L’intesa si fonda su una partnership tecnologica mirata, non su una fusione di strategie o su un allineamento totale degli obiettivi. In base ai termini noti, Intel e NVIDIA cooperano nello sviluppo di piattaforme integrate che combinano CPU x86 Intel e tecnologie GPU NVIDIA, con un focus particolare su AI, laptop ad alte prestazioni e sistemi compatti, sfruttando interconnessioni avanzate e soluzioni di packaging evolute.
L’accordo non implica l’abbandono, da parte di Intel, dello sviluppo di GPU proprietarie: al contrario, definisce una collaborazione selettiva, pensata per accelerare l’ingresso sul mercato di soluzioni competitive nel breve periodo, lasciando però a Intel piena autonomia strategica nelle aree considerate critiche per il proprio futuro industriale.
Quando il CEO di Intel afferma che l’azienda intende sviluppare nuove GPU “per competere con NVIDIA in segmenti chiave”, non sta mettendo in discussione l’accordo tra le due società. Sta delimitando l’ambito della collaborazione e, soprattutto, ciò che Intel vuole controllare in autonomia.
Perché le due strategie convivono
L’annuncio di Tan non segna l’ingresso di Intel nel mondo delle GPU, ma piuttosto un salto di ambizione: un investimento di risorse, persone e processi per realizzare GPU progettate per competere davvero in un mercato dove NVIDIA ha esercitato una leadership dominante per anni.
- Nel breve periodo, Intel collabora con NVIDIA per tornare competitiva rapidamente, sfruttando tecnologie mature.
- Nel medio-lungo periodo, Intel sviluppa GPU proprie per tornare a essere un fornitore completo di piattaforme.
Intel ha assunto Eric Demmers, dirigente con lunga esperienza nella progettazione di GPU, come chief GPU architect all’inizio del 2026 per guidare lo sviluppo delle nuove GPU. Demmers arriva da Qualcomm, dove per oltre 13 anni è stato coinvolto nella divisione GPU, più recentemente come Senior Vice President of Engineering, lavorando su architetture grafiche e acceleratori per diversi segmenti, incluso il mobile e l’AI.
In aggiunta a Demmers, secondo alcune fonti, Intel avrebbe fatto altre assunzioni di rilievo nell’area data center e AI, come Nicolas Dube (ex Arm/HPE) per sovrintendere i lavori sullo sviluppo di soluzioni per data center insieme al team GPU.