Intelligenza artificiale e modelli generativi al servizio delle decisioni aziendali: ecco come

Il ruolo dell'intelligenza artificiale e dei moderni modelli generativi per estrarre informazioni di valore dal "mare" di dati nella disponibilità di ciascuna azienda, indipendentemente dal suo settore e dalle dimensioni.

Il dato rappresenta un asset fondamentale per le organizzazioni, poiché fornisce informazioni preziose e insight essenziali che guidano le decisioni strategiche e operative di qualunque realtà d’impresa. In un’era in cui la tecnologia e la digitalizzazione giocano un ruolo centrale, la capacità di raccogliere, analizzare e interpretare i dati è diventata un elemento distintivo per il successo aziendale.

Tempo addietro si parlava di data lake, grandi volumi di dati, archiviati a partire da svariate fonti in un unico repository. I dati potevano essere memorizzati in formato grezzo ed estratti quando necessario per le attività di analisi ed elaborazione. Nel frattempo ne è passata di acqua sotto i ponti: oggi le aziende che gestiscono dati a ogni livello possono avvantaggiarsi concretamente dei benefici derivanti dalle soluzioni di intelligenza artificiale e in particolare avvalersi dei moderni modelli generativi.

Gli attuali modelli generativi consentono di estrarre valore dall’immensa “dote” di dati aziendali dei quali dispone ogni realtà d’impresa. E lo fanno usando un approccio stocastico: più dati si passano all’algoritmo, più informazioni si possono derivare e più contenuti di valore è possibile produrre. Un’accurata fase di addestramento del modello, che possa contare su dati di qualità come quelli di un’azienda, fa emergere le relazioni probabilistiche che esistono fra i vari dati. In un altro articolo abbiamo evidenziato le differenze tra modelli stocastici e deterministici.

Intelligenza artificiale sempre più utile per fare business intelligence sui dati aziendali: la visione di Ammagamma

Abbiamo avuto l’opportunità di confrontarci su questi temi con Fabio Ferrari, fondatore e presidente di Ammagamma, società che progetta e sviluppa soluzioni di intelligenza artificiale per le aziende.

Ammagamma è una realtà che sviluppa soluzioni e servizi innovativi di intelligenza artificiale per le aziende, dal 2013. Ha sede a Modena ed è composta da un team multidisciplinare di oltre 90 matematici, ingegneri, storici, filosofi e designer che aiutano le imprese a innovare i processi con l’AI, contribuendo allo sviluppo di una società consapevole delle potenzialità, delle implicazioni e dell’impatto di questa tecnologia.

  • IlSoftware.it. Quell'”ontologia di dati” presente nei sistemi informatici che utilizziamo in azienda, in ufficio, a casa, è sempre più utile per creare strumenti AI-driven, utilizzando un approccio stocastico, basato sulle relazioni probabilistiche che sussistono fra i vari dati. Stanno guardando a questo approccio Microsoft (legandolo a OneDrive), AWS e molte altre aziende di più piccole dimensioni. Qual è la “ricetta” di Ammagamma e cosa la rende unica?

Fabio Ferrari, Ammagamma (F.F., nel seguito): Ammagamma propone una soluzione tecnologia, basata su modelli di AI, per estrarre il maggior valore da ogni “concetto” di riferimento dello spazio ontologico di riferimento. Questo approccio tecnologico matematico è fortemente integrato con un progetto di accompagnamento “culturale” per facilitare l’adozione dell’applicazione all’interno dell’organizzazione.

Addestramento dei modelli generativi: quale approccio usare in azienda?

  • La gestione del dato e l’addestramento del modello, per Ammagamma, avvengono in ambito locale, si appoggia al cloud o usa uno schema ibrido? Inoltre, è fornito ai Clienti un modello di base che poi viene arricchito “in tempo reale” con l’ingestion dei “dati custom” della singola impresa?

F.F.: Operiamo con lo scopo di fornire al cliente la migliore esperienza tecnologica, pertanto il nostro sviluppo si basa su una pluralità di architetture e possibilità, per facilitare sia lo sviluppo del progetto, su macchine locali e/o in cloud, che il rilascio della soluzione al cliente. Quest’ultimo può quindi essere gestito in locale o in cloud.

  • Questa domanda fa un po’ il paio con la precedente. Nel tuo illuminante intervento, in occasione della QNAP Partner Conference 2023, hai descritto le immense opportunità che restituisce, a professionisti e aziende, l’utilizzo dei modelli generativi. L’obiettivo è fare business intelligence come mai l’avevamo conosciuta prima d’ora, per estrarre valore da quegli stessi dati che le imprese già posseggono e gestiscono.

F.F.: Noi riteniamo sia fondamentale disporre oggi di un’infrastruttura distribuita, mista e fortemente aggiornata. Detto questo noi non entriamo nello specifico delle infrastrutture analizzando la tipologia di dispositivi presenti. Abbiamo un approccio aperto non vincolandoci a fornitori e licenze specifiche.

Ottimizzazione e personalizzazione dei Large Language Models (LLM)

  • Uno dei meccanismi più “gettonati” per migliorare un modello preesistente ed effettuarne il fine tuning è LoRA (Low-Rank Adaptation). Per chi si avvicina allo studio e all’utilizzo dei LLM open source, si tratta di una tecnica essenziale. Puoi fornire qualche consiglio pratico per chi desidera affrontare l’argomento?

F.F.: Negli ultimi anni, i Large Language Models (LLM), noti anche come Foundational Models, sono stati addestrati utilizzando grandi set di dati e modelli con un numero enorme di parametri. Poiché i modelli sono diventati sempre più grandi, la messa a punto di tutti i parametri comporta costi significativi. Pertanto, i ricercatori si sono concentrati sulla messa a punto efficiente, nota come Parameter-Efficient Fine-Tuning (PEFT).

Low-Rank Adaptation (LoRA) proposto dal team Microsoft, prevede il congelamento dei pesi del modello pre-addestrato (ad esempio, GPT-3) e la messa a punto con un modello molto più piccolo, ottenendo eccellenti risultati di messa a punto su domini di informazioni ben definiti. L’idea è quella di utilizzare la piccola rete LoRA, inserita in livelli specifici, per rendere il modello adattabile a diversi compiti specifici.

Modelli generativi anche in locale

L’impresa, anche guardando al concetto di sovranità digitale, tanto caro al legislatore europeo, può oggi diventare indipendente per quanto riguarda l’elaborazione dei suoi dati servendosi dell’intelligenza artificiale. “Il ferro” torna inevitabilmente a essere protagonista. Così come la capacità del networking locale.

Per chi volesse approfondire, Sebastian Raschka, altro “peso massimo” nel campo dell’intelligenza artificiale, ha recentemente spiegato come dedicarsi al fine tuning dei LLM utilizzando LoRA. Da parte sua, invece, Microsoft ha presentato Windows AI Studio, una soluzione che si prefigge come obiettivo quello di facilitare l’ottimizzazionepersonalizzazione dei modelli generativi in ambito locale usando WSL (Windows Subsystem for Linux). In particolare, QLoRA (Quantized Low-Rank Adaptation) permette di addestrare modelli generativi composti da un vasto numero di parametri usando GPU locali abbinate a un quantitativo di VRAM ridotto.

Un’altra lettura che ci sentiamo di consigliare è la guida “GPU Survival Toolkit for the AI age: The bare minimum every developer must know“, elaborata da Rijul Rajesh. Il documento contiene una serie di informazioni pratiche sul “kit di sopravvivenza” che ogni sviluppatore di soluzioni basate sull’intelligenza artificiale deve avere per sé.

Sebbene Pat Gelsinger tenda a sviare l’attenzione sulla fase di inferenza, Rajesh sottolinea che CUDA, piattaforma di elaborazione parallela sviluppata da NVidia, permette oggi di sfruttare appieno le potenzialità delle GPU. Offre anche una guida dettagliata su come usare il framework CUDA su un sistema Linux, facendo leva sul parallelismo al posto del classico approccio sequenziale lato CPU.

Ti consigliamo anche

Link copiato negli appunti