Inflection AI: chatbot Pi vuole innovare nel settore dell'intelligenza artificiale

A sfidare i nomi già noti nel settore dell'intelligenza artificiale e dei modelli generativi, ci pensa Inflection AI. Investimento da 1 miliardo di dollari su un supercomputer con 22.000 acceleratori NVidia H100. Nasce così il nuovo chatbot Pi, già disponibile in anteprima.

Un’altra azienda al lavoro sullo sviluppo di un chatbot ancora più “smart” rispetto a quelli attuali. Si tratta di Inflection AI, startup fondata nel 2022 nella Silicon Valley, che è finanziata da Bill Gates, Eric Schmidt e NVidia. Obiettivo di Inflection AI è quello di creare il miglior chatbot possibile basato sull’intelligenza artificiale: deve essere utile, empatico e coinvolgente.

Così come gli altri strumenti già noti, il chatbot di Inflection AI poggia il suo funzionamento su un modello generativo che è stato creato addestrando il sistema a partire da una colossale mole di dati di input presentati sotto forma di testo. Il chatbot Pi, che può essere provato in anteprima da questa pagina, rappresenta solamente un “assaggio” delle potenzialità di questo strumento, destinato a evolvere significativamente nei prossimi mesi. Al momento il chatbot comprende anche i quesiti in italiano ma risponde solo in lingua inglese.

Inflection AI è guidata dal britannico Mustafa Suleyman, nel 2010 uno dei fondatori di DeepMind Technologies, acquistata da Google nel 2014 e oggi sempre più integrata nel core business della società. Bill Gates, Eric Schmidt (ex presidente di Google) e Reid Hoffman (co-fondatore di LinkedIn) hanno a loro volta investito in Inflection AI, così come il rapper statunitense will.i.am.

La struttura utilizzata da Inflection AI per il suo chatbot Pi

Insieme con i partner, Inflection AI sta realizzando un supercomputer con circa 22.000 acceleratori NVidia H100 Hopper. A beneficiarne sarà il chatbot Pi ma anche altri progetti che fanno perno sull’intelligenza artificiale.

Stando ai dati tecnici trapelati in questi giorni, il supercomputer AI dovrebbe riuscire a raggiungere addirittura 22 ExaFLOPS complessivi in termini di potenza di calcolo nelle elaborazioni in virgola mobile (formato FP16). Utilizzando la rappresentazione FP64, se il sistema fosse in funzione già oggi, potrebbe quindi posizionarsi al secondo posto assoluto nella classifica Top500 dei supercomputer.

Inflection AI collabora con Microsoft (nell’ambito del progetto Azure), NVidia e CoreWeave, provider di servizi cloud statunitense. Quest’ultimo gestisce diversi data center che utilizzano gli acceleratori AI, forniti primariamente da NVidia.

Stando a quanto riporta MLPerf, Inflection AI utilizza sistemi Nvidia HGX H100 alimentati da CoreWeave abbinati a processori Intel Xeon Platinum 8462Y+. Un nodo del cluster in genere combina otto moduli H100 (SXM5, ciascuno con 80 GB di RAM) con due CPU. Supermicro fornisce tali sistemi e ne racchiude quattro in un rack da 42 o 48 U, ovvero 32 acceleratori H100 in un armadio. Sarebbero quindi necessari 688 armadi per 22.000 H100.

Secondo Supermicro, il consumo energetico massimo è di 45 kW per rack. L’intero supercomputer con 22.000 H100 potrebbe quindi assorbire fino a 31 MW. Un valore che sarebbe significativamente superiore ai 22,7 MW di cui ha bisogno l’attuale supercomputer più potente al mondo: Frontier (Oak Ridge National Laboratory, USA).

Prezzo di listino: circa 1 miliardo di dollari

Facendo i “conti in tasca” a Inflection AI, è possibile stimare che il supercomputer formato da 22.000 acceleratori H100 costi, da prezzi di listino, oltre 1 miliardo di dollari. Poiché le università e gli enti di ricerca ottengono uno sconto del 30% circa, l’investimento stanziato da Inflection AI potrebbe essere effettivamente inferiore. Anche se le cifre in gioco fanno ben comprendere quali possano essere le mire del progetto e di quanto seria si stia facendo la competizione.

Nvidia stessa ha costruito un supercomputer AI di grandi dimensioni: chiamato Eos, è stato svelato nel 2022 ed è anch’esso dotato di acceleratori H100.

Il valore delle azioni Nvidia è salito vorticosamente: sono in programma o in costruzione numerosi supercomputer AI basati sull’offerta H100. Le piattaforme Google Cloud e Microsoft Azure stanno attualmente espandendo le loro capacità di calcolo AI proprio utilizzando questi acceleratori.

Credit immagine in apertura: iStock.com/Shutthiphong Chandaeng

Ti consigliamo anche

Link copiato negli appunti