L’acquisizione di tecnologie e talenti nell’ambito dell’intelligenza artificiale, è oggi una leva strategica essenziale. AMD ha compiuto una mossa audace e indicativa della direzione futura del settore: non ha comprato l’azienda Untether AI, ma ne ha assunto l’intero team ingegneristico, abbandonando di fatto il prodotto e l’infrastruttura commerciale di quest’ultima. Una scelta che segna una svolta netta verso l’ottimizzazione dell’inferenza AI, campo destinato a guadagnare centralità nei prossimi anni.
L’inferenza è l’applicazione pratica di un modello AI già addestrato in precedenza, per ottenere risposte o previsioni a partire da nuovi dati. Nella fase di inferenza, il modello “usa ciò che ha imparato” per fare previsioni o classificazioni. Corrisponde quindi alla “fase operativa” dell’AI e avviene spesso su dispositivi finali (edge computing) o nei data center, dove è importante che sia veloce ed efficiente dal punto di vista energetico.
Untether AI e AMD: un’acquisizione non convenzionale: focus sui talenti, non sui prodotti
L’operazione non è una classica acquisizione corporate: AMD non ha fatto propri asset materiali né proprietà intellettuali complete, ma solo le “menti” che stanno dietro Untether AI. Il risultato è che prodotti come il processore speedAI e l’SDK imAIgine, progettati specificamente per carichi di lavoro di inferenza ad alta efficienza, cesseranno di essere forniti e supportati. I clienti attuali di Untether AI si trovano quindi in una posizione incerta, con un ecosistema destinato a svanire.
Secondo AMD, il team acquisito contribuirà a rafforzare lo sviluppo di compiler, kernel AI, architetture SoC e strumenti di verifica del design, con l’obiettivo di espandere la propria competitività nel mercato AI oltre le GPU.
Inferenza AI: la nuova frontiera dell’efficienza
A differenza dei chip per l’addestramento massivo — come NVIDIA Blackwell Ultra o AMD Instinct MI350 — che richiedono enormi quantità di energia e infrastrutture, i chip come quelli sviluppati da Untether AI sono ottimizzati per l’inferenza: l’applicazione concreta e in tempo reale dei modelli AI. Il loro approccio, basato sulla stretta integrazione tra memoria e calcolo, consente una drastica riduzione della latenza e del consumo energetico.
L’architettura sviluppata da Untether AI, nota come memory-centric computing, è fondamentale in scenari edge, datacenter ottimizzati per inferenza AI e applicazioni a bassa potenza, come dispositivi IoT intelligenti, automazione industriale e assistenti virtuali.
AMD sfida NVIDIA: meno potenza bruta, più intelligenza architetturale
Fino ad oggi, NVIDIA ha dominato il mercato con un approccio orientato alla potenza computazionale, ma l’evoluzione dell’AI sta spostando il baricentro verso efficienza, scalabilità e integrazione verticale.
AMD, con questa nuova strategia, sembra voler costruire un ricco catalogo di prodotti specializzati per l’inferenza, disaccoppiando progressivamente le linee di prodotto AI da quelle HPC (High Performance Computing).
Mentre NVIDIA investe in tecnologie emergenti come l’interconnessione fotonica, AMD sta consolidando le basi per diventare un attore competitivo in segmenti specifici ma cruciali.
Una strategia che anticipa il cambio di paradigma
L’acquisizione del team di Untether AI segue di appena un giorno quella di Brium, una startup specializzata nell’ottimizzazione dell’inferenza AI. Il “doppio colpo” messo a segno dalla società guidata da Lisa Su, dimostra come AMD stia preparando una piattaforma coerente per affrontare la fase post-training dell’intelligenza artificiale.
Secondo Justin Kinsey, presidente della società di recruiting SBT Industries, ha osservato che l’acquisizione del gruppo ingegneristico di Untether AI è la prova che i vendor di GPU sono consapevoli che il ciclo di vita del training massivo è progressivamente in una fase di declino.
L’affermazione è certamente audace ma riflette comunque una tendenza già osservabile: l’attenzione si sta spostando su soluzioni energeticamente sostenibili per l’esecuzione dei modelli AI. D’altra parte è ampiamente noto che le attività fortemente impattanti in termini di risorse e consumi energetici sono proprio quelle di addestramento. Le operazioni di inferenza, di contro, sono molto più rispettose (tanto che è possibile eseguirle con hardware molto più a buon mercato). Ne parliamo nell’articolo sui consumi e sull’impatto ambientale di ChatGPT e soci.