Per fare il grande salto, l'intelligenza artificiale ha bisogno di hardware dedicato: la ricetta MatX

Due ex ingegneri Google presentano il lavoro svolto con MatX, una startup della Silicon Valley che ha in tasca la soluzione per migliorare di un fattore 10 le prestazioni dei modelli generativi e, in generale, delle applicazioni basate sull'intelligenza artificiale.

Con la Silicon Valley sullo sfondo, una nuova startup e la sua ambiziosa missione di ridefinire le capacità dell’hardware per l’intelligenza artificiale stanno davvero facendo breccia. Si tratta di MatX, una promettente realtà fondata da due ex ingegneri di Google, Reiner Pope e Mike Gunter.

MatX si propone come una società pionieristica nella progettazione di hardware specificamente studiato per i LLM (Large Language Models), puntando a massimizzare prestazioni ed efficienza. Aspetti essenziali nel caso dei modelli generativi.

Pope, CEO di MatX, porta con sé oltre un decennio di bagaglio esperienziale, formato durante il suo lungo periodo di “militanza” in Google. All’interno dell’azienda, l’ingegnere ha ricoperto un ruolo cruciale nello sviluppo di chip per l’apprendimento automatico e nello sviluppo di infrastrutture per sistemi distribuiti. A sua volta, Gunter, CTO di MatX, porta una ricchezza di conoscenze accumulate in 28 anni dedicati all’architettura hardware. In seno a Google era il principale progettista di chip per l’apprendimento automatico.

MatX logo, chip IA

MatX: massimizzare le prestazioni dei chip per l’intelligenza artificiale usando hardware dedicato

Al centro della missione di MatX vi è l’impegno di migliorare le prestazioni dei più grandi LLM. Mentre i produttori tradizionali di chip affrontano il processo di progettazione con un approccio “a taglia unica”, MatX utilizza una ricetta cucita nello specifico per i LLM. Questa scelta consente a MatX di raggiungere livelli di efficienza senza precedenti, stabilendo nuovi parametri per la qualità e la disponibilità delle soluzioni di intelligenza artificiale.

Al centro dell’innovativo design dei chip di MatX, c’è l’accento sia sulla fase di addestramento (quella evidentemente più onerosa), sia sull’ottimizzazione dell’inferenza.

Secondo i fondatori di MatX, le loro soluzioni sono già in grado di supportare la distribuzione di modelli massici basati su Transformer, supportando miliardi di parametri e incorporando architetture dense e MoE (mixed expert).

In grado di gestire migliaia di utenti in simultanea durante l’inferenza e raggiungere un throughput di 10 ZettaFLOPS (10²²) nella fase di addestramento dei modelli linguistici di classe 7B, MatX stabilisce un nuovo standard in termini di prestazioni e scalabilità.

A proposito di scalabilità, i chip MatX consentono la creazione di cluster composti da centinaia di migliaia di chip. Questa caratteristica combinata con il controllo hardware a basso livello, permette ai ricercatori e agli sviluppatori di sbloccare nuovi fronti nell’innovazione nel campo dell’intelligenza artificiale.

Uno sguardo verso il futuro

Per i gli LLM più grandi del mondo, offriamo una potenza di calcolo 10 volte superiore, consentendo ai laboratori specializzati di rendere i modelli un ordine di grandezza più intelligenti e utili“, si legge in una nota pubblicata sul sito di MatX.

Già proiettata verso il futuro, MatX immagina uno scenario in cui i suoi chip possano permettere di accelera l’adozione di modelli avanzati di intelligenza artificiale da tre a cinque anni, democratizzando l’accesso alla tecnologia per l’IA e alimentando progressi senza precedenti nella ricerca.

Consentendo anche alle startup in fase iniziale di addestrare e distribuire modelli di classe GPT-4 in modo conveniente, MatX è pronta a inaugurare una nuova era di innovazione guidata dall’intelligenza artificiale, dove i confini di ciò che è possibile possano essere costantemente ridefiniti.

Credit immagine in apertura: iStock.com – BlackJack3D

Ti consigliamo anche

Link copiato negli appunti