Con il lancio di Magistral, Mistral AI compie un passo strategico nel campo dei reasoning language models, modelli di linguaggio pensati per imitare le capacità di ragionamento umano in contesti complessi e multilingue. Si tratta di una nuova generazione di modelli che vanno oltre la generazione testuale generica, per entrare nel merito del pensiero strutturato, tracciabile e verificabile. Mentre Apple parla della grande illusione del ragionamento AI, la francese Mistral AI si mette nella scia dei più grandi player che, a livello internazionale, offrono modelli in grado di scomporre i problemi presentati sotto forma di prompt e giungere al risultato finale sulla base di passaggi successivi.
Mistral AI Magistral: una catena di pensiero multilingue
Uno dei punti di forza di Magistral è la capacità di generare ragionamenti coerenti in numerose lingue. La chain-of-thought — ovvero la sequenza di passaggi logici utilizzata per arrivare a una risposta — è generata e mantenuta nativamente in italiano, inglese, francese, tedesco, spagnolo, arabo, russo e cinese semplificato. E ciò diversamente rispetto ad altri modelli concorrenti che usano quasi esclusivamente la lingua inglese.
Mistral AI spiega che questa caratteristica rende Magistral adatto a contesti globali, istituzionali e regolamentati, dove la comprensione e la tracciabilità del ragionamento nella lingua locale è un requisito normativo e operativo.
Trasparenza come principio basilare
Magistral è progettato puntando verso la stella polare del ragionamento interpretabile. Ogni risposta può essere analizzata passo dopo passo, con evidenze chiare sulle premesse e sui passaggi logici utilizzati. Gli sviluppatori spiegano che questo aspetto è ideale, ad esempio, per l’utilizzo nei seguenti settori:
- Legale e compliance: ogni decisione può essere documentata e giustificata al fine di eventuali verifiche.
- Finanza e assicurazioni: modellazione di rischio, simulazioni di scenario, valutazioni multi-parametriche.
- Sanità e Pubblica Amministrazione: in questi campi applicativi, l’aderenza a protocolli e normative è critica.
Due versioni per due missioni
Il nuovo modello generativo basato sul “ragionamento” è reso disponibile in due varianti:
- Magistral Small (24 miliardi di parametri): open source, disponibile liberamente sotto licenza Apache 2.0.
- Magistral Medium: versione enterprise ad alte prestazioni, integrabile via API o in ambienti cloud e on-premises.
Entrambe le versioni sono ottimizzate per il ragionamento strutturato e la versatilità applicativa. Nei test di valutazione AIME2024 (un benchmark pensato per misurare le capacità di ragionamento matematico e scientifico avanzato dei modelli linguistici), Magistral Medium ha ottenuto un punteggio iniziale del 73,6%, ovvero ha risposto correttamente al 73,6% delle domande proposte. Tuttavia, applicando la tecnica del “majority voting” — cioè facendo rispondere il modello più volte alla stessa domanda e scegliendo come risposta finale quella data più frequentemente — l’accuratezza complessiva è salita fino al 90%. Anche la versione open ha mostrato performance solide, confermandosi adatta a sperimentazioni accademiche e applicazioni avanzate.
Come provare Magistral in tempo reale con il chatbot di Mistral AI
In anteprima su Le Chat, l’assistente conversazionale di Mistral, la versione Medium di Magistral sfrutta la nuova funzione Flash Answers per fornire risposte fino a 10 volte più rapide rispetto ai concorrenti.
Questo approccio consente interazioni quasi in tempo reale per applicazioni che richiedono ragionamento su vasta scala con feedback immediato, come supporto decisionale in ambienti dinamici o servizi AI per l’utenza enterprise.
Magistral Small è scaricabile da Hugging Face per l’utilizzo su sistemi che sono sotto il proprio diretto controllo. Magistral Medium è disponibile, come detto, su Le Chat oppure tramite API; su Amazon SageMaker; in arrivo su IBM WatsonX, Azure AI e Google Cloud Marketplace.