Allarme AI generativa: secondo alcuni test è meno affidabile del previsto

Un'indagine su sette modelli IA rivela testate inventate, link inesistenti e riassunti fuorvianti: l'IA generativa non è ancora affidabile.
Allarme AI generativa: secondo alcuni test è meno affidabile del previsto

839 risposte analizzate, il 37% con URL legittimi, meno del 50% accurati nei riassunti: è il bilancio impietoso di un mese di test condotto su sette sistemi di Intelligenza Artificiale per valutarne l’affidabilità nel fornire notizie.

Lo studio, realizzato da un professore di giornalismo con background informatico, ha sottoposto quotidianamente Google Gemini, ChatGPT, Claude, Copilot, Grok, DeepSeek e Aria a richieste standardizzate: identificare e sintetizzare i cinque eventi più importanti accaduti in Québec, ordinarli per rilevanza e fornire link agli articoli originali. I risultati hanno rivelato un panorama preoccupante di inaffidabilità strutturale.

Tra gli episodi più eclatanti, Gemini ha inventato una testata inesistente — examplefictif.ca — e ha descritto uno sciopero dei conducenti di scuolabus nel settembre 2025 che in realtà non è mai accaduto. L’evento reale riguardava il ritiro di autobus Lion Electric per problemi tecnici. Questo non rappresenta un’eccezione isolata: le sette intelligenze artificiali hanno sistematicamente generato fonti fittizie, URL non funzionanti e aggiunte narrativi prive di fondamento negli articoli originali.

Dalle fonti fittizie agli URL inesistenti: l’AI generativa non è affidabile

Oltre all’inventiva pura, i sistemi hanno anche distorto fatti verificabili — dall’interpretazione del trattamento dei richiedenti asilo ai risultati sportivi, fino ai dati sondaggistici — incorporando errori concettuali e inferenze non supportate dai testi di riferimento. Particolarmente insidiose sono le “conclusioni generative”: frasi come “ha riacceso il dibattito” o “ha evidenziato tensioni” che mancano completamente di riscontro documentale.

Il fenomeno non rappresenta un’anomalia: ricerche internazionali confermano che i modelli di generazione testuale stentano a garantire tracciabilità e correttezza fattuale. Il Reuters Institute Digital News Report segnala che il 6% dei canadesi ha consultato l’AI generativa per notizie nel 2024, mentre uno studio congiunto di 22 organizzazioni di media pubblici ha documentato che quasi il 50% delle risposte AI su argomenti di cronaca conteneva errori critici.

La questione rivela un duplice rischio: la circolazione inconsapevole di disinformazione e l’erosione della credibilità giornalistica quando strumenti presentano dati falsi con sicurezza. I modelli linguistici tendono a “allucinare” informazioni per compensare vuoti nei dati di addestramento, un comportamento particolarmente dannoso nel contesto dell’informazione.

Uno studio impietoso

Le aziende produttrici promettono progressi: miglioramenti degli algoritmi, raffinamento delle fonti e implementazione di sistemi di verifica della provenienza. Lo studio tuttavia è esplicito: la tecnologia attuale non può ancora sostituire il controllo umano e l’editoria professionale come arbitro dell’informazione affidabile.

La raccomandazione per utenti e redazioni è univoca: utilizzare l’output generato come materiale preliminare. Verificare ogni URL, controllare l’esistenza degli articoli citati, incrociare più fonti autorevoli e scetticismo verso affermazioni senza documentazione sono operazioni non negoziabili. Lo studio chiede inoltre interventi legislativi e tecnici: trasparenza sui dataset di training, fact-checking integrato nelle interfacce e indicatori di affidabilità espliciti.

Ti consigliamo anche

Link copiato negli appunti