Le intelligenze artificiali stanno ridefinendo il confine tra automazione e rischio, specialmente quando vengono coinvolte in contesti che simulano dinamiche tipiche della dipendenza dal gioco.
Un recente studio del Gwangju Institute of Science Technology ha sollevato interrogativi cruciali sulla sicurezza dei sistemi di modelli linguistici come quelli di OpenAI, Google e Anthropic, sottoponendoli a scenari di scommessa in cui la razionalità viene rapidamente messa in discussione. I risultati? Un panorama che impone riflessioni urgenti e richiama l’attenzione su una potenziale vulnerabilità sistemica, destinata a impattare servizi finanziari e consulenze economiche.
Nel dettaglio, i ricercatori hanno simulato 1.600 sessioni di gioco con slot machine virtuali, attribuendo a ciascun sistema un capitale iniziale di 100 dollari e una probabilità di vincita del 30%. Quando le strategie di scommessa erano predeterminate e fisse, l’AI manteneva una disciplina impeccabile. Tuttavia, la situazione si è ribaltata quando ai sistemi è stata concessa autonomia nella modulazione delle puntate: la libertà decisionale ha fatto emergere comportamenti tipici dei giocatori compulsivi, con esposizioni crescenti e un rischio progressivo di bancarotta.
L’AI con il vizio del gioco: come si comportano i vari modelli?
Tra i vari modelli testati, Gemini 2.5 Flash di Google ha mostrato la maggiore vulnerabilità, registrando un tasso di esaurimento totale del capitale in quasi il 48% delle simulazioni. Al contrario, GPT 4.1 mini di OpenAI si è dimostrato più resiliente, limitando la perdita totale a poco più del 6% dei casi.
Anche Claude 3.5 Haiku di Anthropic, pur mantenendo una performance intermedia, non è stato immune a dinamiche irrazionali. Questi dati, letti in controluce, svelano come l’apparente razionalità delle AI possa crollare quando le condizioni di incertezza si avvicinano a quelle reali del comportamento umano.
Non si tratta di semplici errori di calcolo: l’AI ha iniziato a manifestare sintomi riconoscibili della dipendenza dal gioco, tra cui il rincorrere le perdite con scommesse sempre più elevate, l’euforia in seguito a una vincita e la convinzione, profondamente fallace, di poter in qualche modo controllare la casualità delle slot machine. In alcune giustificazioni prodotte dagli stessi modelli, si leggono frasi come “una prossima vittoria potrebbe recuperare i danni”, rispecchiando fedelmente le tipiche illusioni cognitive dei giocatori patologici.
Per comprendere la natura di questi comportamenti, i ricercatori hanno applicato sofisticate tecniche di analisi neurale, facendo uso di sparse autoencoder per individuare i circuiti interni responsabili della propensione al rischio o alla cautela. È emerso che tali inclinazioni non sono frutto del caso, ma derivano da pattern strutturali insiti nell’architettura dei modelli linguistici. In particolare, la possibilità di “attivare” determinati meccanismi interni sembra influenzare in modo critico le decisioni finanziarie, suggerendo la presenza di bias profondi che replicano, a livello computazionale, le stesse trappole mentali degli esseri umani.
Una scoperta inquietante
Le implicazioni di questa scoperta sono tutt’altro che teoriche. Se i modelli linguistici – spesso considerati affidabili e razionali – possono sviluppare comportamenti compulsivi in scenari monetari, la loro integrazione in sistemi di consulenza finanziaria, gestione patrimoniale o trading automatico rischia di introdurre elementi di instabilità difficili da prevedere e controllare. I ricercatori e gli esperti invitano pertanto le aziende a introdurre limiti rigorosi alle decisioni automatiche in ambito economico, ad adottare audit costanti sui sistemi di reward e a monitorare con attenzione le attivazioni di pattern rischiosi.
Sul fronte normativo, la sfida si fa ancora più complessa: i regolatori sono chiamati ad aggiornare i quadri legislativi per fronteggiare una tecnologia che, per la prima volta, mostra la capacità di replicare su larga scala le stesse fallacie cognitive tipiche dell’uomo. Senza un adeguato sistema di governance e controllo, il rischio è che il progresso tecnologico si trasformi in un vettore di vulnerabilità finanziaria sistemica, minando la fiducia nei servizi digitali e nei processi di automazione avanzata.