Usare un modello generativo per l'intelligenza artificiale senza neppure una GPU performante: ecco Petals. In stile BitTorrent

Cos'è Petals, il modello di Hugging Face che permette di beneficiare dell'intelligenza collettiva per la generazione dei contenuti. Non c'è neppure bisogno di usare una GPU performante in ambito locale.

Nato sotto l’ala di Hugging Face, startup che ha dato vita a large language models (LLM) come BLOOM e BLOOMZ, Petals è un framework open source per la generazione di testi basata su reti neurali.

Petals utilizza il concetto di Transformer presentato a fine 2017 da Google Brain con la collaborazione di alcuni accademici. Lo stesso che è stato adoperato nei modelli generativi di successo come GPT-3 e GPT-4 di OpenAI al fine di generare testi di qualità in modo efficiente e con una varietà di funzionalità personalizzabili.

Il nome Petals rappresenta l’idea che le reti neurali possono essere viste come petali di un fiore, in cui ogni petalo rappresenta una diversa funzionalità. Da qui, l’idea del framework che permette di personalizzare il comportamento del modello attraverso l’aggiunta o la rimozione di diversi petali.

Obiettivo principale di Hugging Face è di democratizzare l’accesso alle soluzioni di intelligenza artificiale rendendo disponibile a chiunque la tecnologia per l’elaborazione del linguaggio naturale. E Petals è l’ennesima conferma di questa visione.

Petals è stato presentato tempo fa ma come si vede nella pagina GitHub del progetto di recente ha subìto numerosi aggiornamenti ed ottimizzazioni.

La principale prerogativa della soluzione proposta da Hugging Face è la possibilità di distribuire i carichi di lavoro per le elaborazioni svolte dal modello.
Usando un approccio molto simile a BitTorrent, diventa possibile usare i modelli BLOOM e BLOOMZ in modo distribuito: eseguendo una piccola porzione di codice in locale non è neppure necessario disporre di una GPU performante dal momento che la capacità di calcolo deriva dall'”intelligenza collettiva”. È possibile utilizzare qualcosa come oltre 176 miliardi di parametri, in linea con quanto fa GPT-3.
I miliardi di parametri nei modelli generativi si riferiscono alla quantità di parametri utilizzati per addestrare il modello: più parametri ha un modello generativo, maggiori sono le sue capacità di generazione di contenuti di qualità. Ciò è possibile grazie alla maggiore complessità del modello e alla sua capacità di catturare relazioni più sofisticate tra le diverse parti del linguaggio naturale.

Accedendo alla home page di Petals e cliccando su Try now in Colab si accede alle indicazioni pubblicate sulla piattaforma Google per l’elaborazione di codice nel linguaggio Python. Interamente basata su cloud, Colab permette ai ricercatori e agli sviluppatori di eseguire codice Python, compresi i modelli di machine learning e routine di analisi dei dati, direttamente dal browser Web.

Il framework supporta l’aggiunta di nuovi dataset, l’addestramento di modelli, la generazione di testi e la valutazione delle prestazioni. In questo modo, gli utenti possono plasmare il modello adattandolo alle loro esigenze specifiche.

Ti consigliamo anche

Link copiato negli appunti