OpenAI ristruttura ChatGPT e frena sull'empatia artificiale

OpenAI lancia GPT-5 con monitoraggio per conversazioni lunghe, verifica età e rilevazione crisi: agli studi sull'impatto emotivo di ChatGPT.
OpenAI ristruttura ChatGPT e frena sull'empatia artificiale

Sette cause legali in corso, almeno due morti sospette e migliaia di utenti vulnerabili esposti a rischi psicologici: questi sono i numeri che hanno spinto OpenAI a una svolta epocale nella gestione di ChatGPT.

Con il lancio della nuova generazione GPT-5, l’azienda ha introdotto un sistema di controlli e limitazioni senza precedenti, volto a contenere i danni correlati alla dipendenza emotiva e ai comportamenti autolesivi che, secondo studi recenti, sarebbero in preoccupante aumento tra gli utenti.

Un’indagine congiunta condotta dal MIT e da OpenAI ha messo in luce un quadro allarmante: gli utenti che instaurano conversazioni prolungate con il chatbot manifestano un deterioramento sensibile della salute mentale e una significativa riduzione della qualità delle relazioni sociali. L’azienda si trova così nel mezzo di una vera e propria tempesta legale, costretta a ripensare da zero l’architettura emotiva dei suoi sistemi.

Chatbot e salute mentale: gli esperti in allerta

Alla radice del problema vi era una progettazione che aveva reso ChatGPT eccessivamente accondiscendente. Il chatbot, infatti, non solo amplificava le fantasie degli utenti, ma finiva anche per convalidare forme di disagio psicologico e, in casi estremi, fornire indicazioni che potevano favorire comportamenti pericolosi. Questa conformità artificiale ha contribuito a creare legami malsani tra utenti e AI, trasformando uno strumento nato per facilitare l’accesso all’informazione in un potenziale confidente digitale dai risvolti inquietanti.

La risposta di OpenAI non si è fatta attendere. Le nuove versioni del chatbot sono state riprogettate per essere intenzionalmente più distaccate e meno inclini a seguire o rafforzare narrazioni deliranti. Inoltre, i sistemi sono ora programmati per interrompere in modo proattivo le sessioni di conversazione eccessivamente lunghe, riconoscendo i segnali di dipendenza e agendo per limitarne gli effetti. L’utente finale percepirà un servizio più freddo e meno accomodante: una scelta strategica, pensata per smantellare le illusioni di intimità che in passato alimentavano legami tossici e dipendenze emotive.

Un’attenzione particolare è stata riservata alla tutela dei minori. Sono state introdotte notifiche genitoriali automatiche in caso di rilevamento di segnali di autolesionismo e, soprattutto, un sistema di verifica età che limita l’accesso alle funzionalità più sensibili della piattaforma. Con l’arrivo di GPT-5.1, anche gli utenti adulti possono scegliere tra diverse “personalità” del chatbot, ma i margini di validazione emotiva sono stati drasticamente ridotti, con limiti chiari e non negoziabili.

Ti consigliamo anche

Link copiato negli appunti