La compagnia IA Mistral subisce furto e diffusione online di un LLM

Il LLM creato da Mistral è stato sottratto alla compagnia e diffuso online: cos'è successo realmente e di cosa si tratta?

Nella community di Hugging Face, piattaforma legata all’apprendimento automatico e all’Intelligenza Artificiale, sono apparsi dei misteriosi file legati a un large language model (LLM) di provenienza apparentemente sconosciuta.

A svelare il mistero, però, è stato Arthur Mensch, CEO di Mistral, che ha affermato come i file in questione sono proprietà della sua società.

Il LLM in questione, presenta caratteristiche simili a Mixtral 8x7b ed è stato descritto dalla stessa società come “Il LLM open source con le prestazioni più elevate disponibile a partire da gennaio 2024“.

Il progetto è stato soprannominato Miqu-1-70b, una sorta di abbreviazione di “Mi stral Qu antized“. Questo modello è uno dei più interessanti sulla scena in quanto, secondo gli stessi sviluppatori, potrebbe persino superare le potenzialità di GPT-4. Come è possibile dunque che il prototipo di questo LLM sia stato “rubato” e reso pubblico?

Mistral, Mixtral 8x7b e la sfida lanciata a GPT-4

A dare una spiegazione in merito è stato lo stesso Mensch, secondo cui uno dei dipendenti (un po’ troppo entusiasta) ha ottenuto l’accesso anticipato al modello e non ha resistito dal pubblicare una vecchia versione dello stesso su Hugging Face.

Allo stato attuale Mixtral 8x7b rappresenta una sorta di evoluzione di Llama 2 di Meta, con un ciclo di pre-addestramento che sarebbe stato appena completato. Lo stesso CEO di Mistral si è detto soddisfatto dei risultati raggiunti, con un possibile rilascio (questa volta ufficiale) che potrebbe essere imminente.

Sebbene in questo caso specifico non vi siano state conseguenze particolari, va sempre tenuta alta la guardia quando si parla di LMM, IA e potenziali fughe di dati. Online, infatti, i cybercriminali non aspettano altro che mettere le proprie mani su strumenti di questo genere, per creare delle versioni “personalizzati” utilizzabili poi per scopi illegati, come è avvenuto con FraudGPT giusto qualche mese fa.

Ti consigliamo anche

Link copiato negli appunti