Perché GPT-5 continua a generare allucinazioni?

OpenAI analizza le cause delle allucinazioni nei modelli linguistici come GPT-5 e propone nuove metriche di valutazione per contrastarle.
Perché GPT-5 continua a generare allucinazioni?

L’evoluzione dell’Intelligenza artificiale ha portato i modelli linguistici a risultati straordinari, ma ha anche sollevato interrogativi cruciali sulla loro affidabilità.

In particolare, uno dei fenomeni più discussi è quello delle allucinazioni, ovvero la tendenza dei sistemi come GPT 5 e ChatGPT a generare risposte che, pur apparendo convincenti, risultano essere del tutto inventate. Un recente studio di OpenAI getta nuova luce sulle radici di questo problema, sottolineando quanto sia strutturale e difficile da eradicare completamente, perlomeno nel prossimo futuro.

Nonostante il continuo avanzamento delle tecnologie AI, le allucinazioni rimangono un nodo critico. I ricercatori di OpenAI hanno analizzato in profondità le cause di questo fenomeno, scoprendo che esso affonda le sue radici nelle modalità con cui i modelli linguistici vengono progettati e addestrati. In particolare, questi sistemi sono costruiti per prevedere la sequenza più probabile di parole, senza però avere accesso a una comprensione reale della verità fattuale.

Un esempio emblematico, citato nello studio, riguarda la risposta di un chatbot interrogato sulla tesi di dottorato di Adam Tauman Kalai. In tre tentativi distinti, il sistema ha fornito tre risposte diverse, tutte errate, ma in ogni caso espresse con un tono sicuro e persuasivo. Questo episodio mette in evidenza come le allucinazioni non siano semplici errori, ma veri e propri “errori convinti”, radicati nella struttura stessa dei modelli.

Allucinazioni e modelli linguistici: un problema di difficile soluzione

La questione si complica ulteriormente se si analizza il processo di pre addestramento. Durante questa fase, i modelli linguistici imparano a prevedere le parole in sequenza, ma non ricevono alcun feedback sull’accuratezza delle informazioni prodotte. Questo metodo si rivela efficace per la grammatica e la sintassi, ma si mostra fallace quando si tratta di dati specifici o rari, che non seguono pattern statistici facilmente identificabili.

Un aspetto cruciale evidenziato dai ricercatori riguarda le metriche di valutazione attualmente utilizzate nel settore. Secondo lo studio, le metriche basate esclusivamente sull’accuratezza tendono a incentivare i modelli a “tirare a indovinare” piuttosto che a manifestare incertezza quando non dispongono di informazioni sufficienti. È un po’ come se uno studente rispondesse a caso a un test a scelta multipla, sperando di guadagnare qualche punto extra, anche senza conoscere la risposta esatta.

Proprio per questo motivo, OpenAI suggerisce una revisione radicale dei criteri di valutazione. La proposta consiste nell’introdurre penalità per le risposte errate fornite con sicurezza e, al tempo stesso, nel premiare l’ammissione di incertezza. In altre parole, il sistema di valutazione dovrebbe essere riformato in modo da valorizzare la precisione e la cautela, piuttosto che il rischio di risposte avventate.

Questa riflessione non è solo teorica, ma ha implicazioni concrete per ambiti dove la qualità dell’informazione è fondamentale. In settori come la medicina, la finanza e i trasporti autonomi, l’affidabilità delle risposte fornite dai modelli linguistici può fare la differenza tra successo e fallimento, sicurezza e rischio. Ecco perché la ridefinizione delle metriche di valutazione rappresenta un passaggio essenziale per costruire sistemi di intelligenza artificiale più affidabili e meno inclini a produrre allucinazioni.

Ti consigliamo anche

Link copiato negli appunti