Anche AMD investe sull'intelligenza artificiale con l'acquisizione di Nod.ai

Un produttore di chip come AMD punta sulle soluzioni di intelligenza artificiale avanzate progettate e sviluppate da Nod.ai. A far pendere l'ago della bilancia verso l'acquisizione dell'azienda le molteplici ottimizzazioni per l'hardware AMD, specialmente processori, GPU e acceleratori.

AMD mette in evidenza il suo vivo interesse per le moderne soluzioni di intelligenza artificiale e annuncia l’acquisizione di Nod.ai, azienda specializzata nei sistemi di IA e nel machine learning. La scelta non è casuale: Nod.ai progetta, sviluppa e fornisce tecnologie open source utili per mettere a punto le IA di domani.

L’intento di AMD è quello di avvantaggiarsi del know how di Nod.ai al fine di proporre agli utenti soluzioni di IA ottimizzate per i chip dell’azienda di Sunnyvale. Gli ingegneri di Nod.ai hanno infatti già sviluppato e messo a punto una tecnologia software leader del settore che accelera l’implementazione di soluzioni IA ottimizzate per gli acceleratori AMD Instinct, i processori Ryzen AI, i processori EPYC, i SoC Versal e le GPU Radeon.

L’accordo è quindi in linea con la strategia di crescita AMD che intende puntare su ecosistema software aperto che abbassa le barriere di ingresso per i clienti attraverso strumenti, librerie e modelli di sviluppo.

Chi è e cosa fa Nod.ai

Il cuore dell’innovativa soluzione di Nod.ai risiede nella piattaforma SHARK, a sua volta costruita al di sopra di tecnologie all’avanguardia come LLVM, MLIR, IREE.

LLVM (Low Level Virtual Machine) è un framework open source progettato per ottimizzare il processo di compilazione di programmi. Inizialmente sviluppato per il linguaggio di programmazione C, LLVM è ora ampiamente utilizzato per supportare una varietà di linguaggi. La sua architettura modulare consente di eseguire diverse fasi di compilazione, comprese l’analisi del codice sorgente, l’ottimizzazione e la generazione del codice macchina. In un altro articolo abbiamo visto le differenze tra compilazione e interpretazione.

MLIR (Multi-Level Intermediate Representation) è un framework di rappresentazione intermedia progettato per fornire una rappresentazione unificata di diversi livelli di astrazione nei compilatori. Creato come parte del progetto LLVM, MLIR è progettato per semplificare la creazione di compilatori avanzati che lavorano con modelli di programmazione diversi, come ad esempio i modelli di programmazione di alto livello utilizzati in apprendimento automatico.

IREE (Intermediate Representation Execution Environment) è un progetto open source sviluppato da OpenXLA. Si tratta di un ambiente di esecuzione che costruisce un ponte tra le rappresentazioni intermedie, come MLIR, e l’esecuzione su dispositivi hardware specializzati, garantendo che i modelli di machine learning possano beneficiare delle prestazioni offerte da hardware dedicato.

Approccio rivoluzionario: Compiler-Based Machine Learning

Nod.ai adotta un approccio rivoluzionario basato sull’utilizzo della compilazione nel caso dei sistemi di machine learning. Grazie a questo schema, gli sviluppatori della società hanno dimostrato di poter brillantemente superare i limiti dei kernel tradizionali scritti manualmente.

L’utilizzo di compilatori dedicati non solo migliora l’efficienza computazionale, ma offre anche una flessibilità e una scalabilità superiori, consentendo di sfruttare appieno risorse eterogenee come CPU, GPU e acceleratori.

La piattaforma SHARK di Nod.ai, adesso ereditata da AMD, poggia su tutti i componenti brevemente descritti in precedenza e gode di una serie di ottimizzazioni volte a migliorare ulteriormente le prestazioni. L’implementazione di modelli di machine learning avanzati diventa così ancora più semplice e veloce.

Lo schema utilizzato con successo dai tecnici di Nod.ai consente inoltre di migliorare le prestazioni del sistema in modo dinamico, adattandosi alle mutevoli esigenze degli ambienti di calcolo complessi.

La scommessa di AMD sull’intelligenza artificiale si preannuncia vincente

AMD fa presente che con l’acquisizione di Nod.ai migliorerà la capacità di fornire ai clienti soluzioni di intelligenza artificiale aperte, essenziali per implementare facilmente modelli di IA altamente performanti ottimizzati per l’hardware AMD. “L’arrivo del talentuoso team di Nod.ai accelera la nostra capacità di far avanzare la tecnologia dei compilatori open source e di abilitare soluzioni AI portatili e ad alte prestazioni nel portafoglio di prodotti AMD. Le tecnologie di Nod.ai sono già ampiamente implementate oggi nel cloud, nell’edge e in un’ampia gamma di dispositivi endpoint“, ha commentato Vamsi Boppana, vicepresidente senior dell’Artificial Intelligence Group AMD.

Uno dei tanti punti di forza di Nod.ai è infatti la capacità di gestire una vasta gamma di risorse eterogenee, comprese CPU, GPU e acceleratori. Questa flessibilità consente agli sviluppatori di sfruttare appieno il potenziale di calcolo disponibile, garantendo prestazioni ottimali per una varietà di carichi di lavoro. La SHARK Machine Learning Distribution, supportata da tecniche avanzate, promette di portare le applicazioni di intelligenza artificiale a nuovi livelli di efficienza, flessibilità e adattabilità.

Con un impegno continuo nell’innovazione, Nod.ai conferma la sua visione pionieristica utile a plasmare il futuro delle tecnologie per l’intelligenza artificiale.

Ti consigliamo anche

Link copiato negli appunti