Test rivela come l'AI tenda a sovrastimare l'intelligenza umana

Esperimenti con ChatGPT e Claude nel gioco di Keynes rivelano che l'AI spesso presume troppo razionalità negli umani, creando rischi.
Test rivela come l'AI tenda a sovrastimare l'intelligenza umana

Quando si parla di Intelligenza Artificiale, spesso si tende a credere che questi sistemi siano ormai capaci di comprendere profondamente le dinamiche umane, riuscendo persino ad anticipare scelte e comportamenti delle persone nei contesti più diversi.

Tuttavia, la realtà raccontata dagli esperimenti più recenti è ben diversa: l’AI di ultima generazione, come ChatGPT e Claude, continuano a commettere un errore sistematico di fondo, ovvero quello di sopravvalutare la razionalità umana. Questo fenomeno, apparentemente sottile, si rivela in realtà di importanza cruciale per l’impatto che può avere in ambiti come economia, politica e processi decisionali pubblici.

Un esempio illuminante arriva dal celebre gioco di Keynes, noto anche come “Guess the Number”, in cui i partecipanti devono indovinare la metà della media delle scelte degli altri giocatori. In questo scenario, ricercatori hanno messo alla prova alcuni dei più avanzati sistemi AI, confrontandoli con gruppi di persone di profilo molto vario: dagli studenti ai professionisti della teoria dei giochi. I risultati sono stati sorprendenti e, per certi versi, rivelatori: le AI giocano in modo “troppo intelligente”, attribuendo agli avversari umani una capacità di ragionamento iterativo che nella pratica, però, si rivela largamente assente.

Il gioco di Keynes rivela un comportamento curioso di ChatGPT e Claude

Durante le sessioni di test, modelli come ChatGPT-4o e Claude-Sonnet-4 hanno dimostrato una tendenza interessante: di fronte a esperti, adattavano le proprie strategie verso equilibri più sofisticati, mentre contro i principianti continuavano a supporre mosse molto più elaborate di quelle effettivamente adottate dagli umani.

Questo evidenzia una tendenza sistematica: i sistemi AI attribuiscono alle persone una razionalità umana superiore a quella reale, commettendo un errore che può diventare critico in molte applicazioni concrete.

Ma da dove nasce questa distorsione? Le radici affondano nei dati di addestramento: le reti neurali vengono alimentate principalmente con testi prodotti in contesti riflessivi e formali, dove il ragionamento umano appare molto più lineare e logico rispetto alle decisioni prese spontaneamente nella vita reale o in laboratorio. Inoltre, l’architettura stessa dei modelli privilegia risposte coerenti e “razionali”, replicando fedelmente i pattern dei dati di training ma senza riuscire a cogliere l’irrazionalità e la variabilità tipiche del comportamento umano autentico.

Il problema si amplifica quando gli utenti, fidandosi ciecamente delle raccomandazioni dell’AI, finiscono per sovrastimare non solo le capacità del sistema, ma anche le proprie competenze decisionali. Studi recenti mostrano che l’uso frequente di strumenti decisionali digitali induce una percezione distorta di precisione e affidabilità, creando una combinazione potenzialmente pericolosa: un’AI che presume una razionalità umana troppo elevata, unita a utenti che delegano in modo acritico, può portare a errori sistematici amplificati in settori come la finanza, la consulenza strategica e la definizione di politiche pubbliche.

Come affrontare questa sfida?

Gli esperti suggeriscono diverse soluzioni: in primo luogo, arricchire i dataset di addestramento con dati comportamentali eterogenei, in grado di riflettere la complessità e l’imprevedibilità reale delle decisioni umane. In secondo luogo, integrare nei modelli meccanismi di calibrazione probabilistica e sviluppare interfacce trasparenti, che rendano evidenti i limiti dei sistemi. Alcuni ricercatori propongono addirittura di dotare le AI di moduli di “teoria della mente umana”, basati su principi di economia comportamentale, per simulare profili di decisori con diversi gradi di razionalità.

Le implicazioni pratiche di questo approccio sono evidenti: nei mercati finanziari, affidarsi a modelli che presuppongono agenti iper-razionali rischia di generare previsioni fuorvianti; in ambito politico, strategie basate su una visione troppo idealizzata del comportamento umano possono risultare inefficaci; persino nel campo della formazione, ignorare il divario tra ragionamento ideale e comportamento reale rischia di produrre feedback poco utili o addirittura controproducenti.

Ti consigliamo anche

Link copiato negli appunti