Il futuro dell’AI nei data center: Qualcomm svela AI200 e AI250 da record

Qualcomm entra nella corsa all’intelligenza artificiale per data center con AI200 e AI250. Le schede offrono alta capacità di memoria, raffreddamento avanzato e sicurezza integrata.

Le grandi aziende tecnologiche stanno investendo massicciamente nell’intelligenza artificiale. La corsa all’AI non riguarda più soltanto gli algoritmi: la richiesta di hardware ad alte prestazioni, software ottimizzati e servizi di supporto specializzati cresce a ritmi senza precedenti.

In questo scenario, Qualcomm s’inserisce nell’agone con due soluzioni destinate a ridefinire il calcolo AI nei data center: AI200 e AI250. Si tratta di schede acceleratrici basate su chip sviluppati internamente, progettate per l’inferenza AI e capaci di coniugare potenza di calcolo, efficienza energetica e costi operativi ottimizzati.

Qualcomm AI200: potenza e memoria per modelli su larga scala

Qualcomm AI200 integra una NPU progettata per gestire i carichi di lavoro massivi tipici dei modelli di intelligenza artificiale, dai LLM (Large Language Models) ai modelli multimodali. La scheda supporta fino a 768 GB LPDDR, una quantità di memoria che consente di eseguire inferenze su grandi modelli AI senza dover ricorrere frequentemente a risorse esterne, riducendo latenze e costi. Il raffreddamento a liquido diretto (DLC) assicura la gestione termica ottimale dei rack ad alta densità, permettendo di mantenere elevate performance anche sotto carichi di lavoro intensi.

AI250: il salto generazionale con il near-memory computing

AI250, in arrivo nel 2027, rappresenta il vero salto generazionale. Pur mantenendo la stessa capacità di memoria per scheda dell’AI200, introduce un’architettura di near-memory computing che integra calcolo e memoria nello stesso modulo, riducendo drasticamente la latenza e aumentando la banda effettiva della memoria di oltre 10 volte. Questo approccio consente di eseguire inferenze più velocemente e con un consumo energetico significativamente inferiore, aprendo la strada all’inferenza disaggregata, in cui il carico di lavoro AI può essere distribuito tra diverse risorse hardware in modo più efficiente.

Architettura scalabile e sicurezza integrata

Entrambe le soluzioni sono progettate per soddisfare i requisiti dei data center moderni: oltre al raffreddamento a liquido e alla memoria ad alta capacità, supportano la scalabilità verticale tramite PCIe e quella orizzontale tramite Ethernet, garantendo al contempo la sicurezza dei dati attraverso lo schema di confidential computing. In pratica, AI200 e AI250 non sono semplici schede acceleratrici, ma piattaforme integrate capaci di gestire l’inferenza AI a livello rack con flessibilità e sicurezza.

Software stack hyperscaler-grade: AI pronta all’uso

Un elemento chiave di queste soluzioni è il cosiddetto software stack hyperscaler-grade: è pensato per semplificare la gestione dei modelli AI e accelerare la loro distribuzione. Gli sviluppatori possono ad esempio disporre la distribuzione dei modelli pubblicati su Hugging Face con un solo clic. L’obiettivo è quello di semplificare l’integrazione, la gestione e lo scaling di modelli pre-addestrati senza complessità aggiuntive, accelerando così l’adozione dell’AI generativa in contesti enterprise.

Prime implementazioni e prospettive

Tra i primi clienti a confermare l’adozione delle nuove soluzioni presentate da Qualcomm, c’è Humain: l’azienda prevede di costruire un’infrastruttura AI da 200 megawatt in Arabia Saudita, utilizzando sia AI200 che AI250.

Con i due prodotti appena svelati, Qualcomm vuole confermare il suo ruolo da protagonista nella trasformazione radicale dell’infrastruttura a livello di data center.

Ti consigliamo anche

Link copiato negli appunti