ChatGPT e la dipendenza emotiva: preoccupazione OpenAI che corre ai ripari

OpenAI potenzia ChatGPT con nuovi strumenti di sicurezza: miglior rilevamento del disagio, collaborazione con 170 esperti e misure per ridurre la dipendenza emotiva.
ChatGPT e la dipendenza emotiva: preoccupazione OpenAI che corre ai ripari

Nel panorama dell’Intelligenza Artificiale, la sicurezza degli utenti rappresenta una delle sfide più rilevanti e discusse, soprattutto quando si tratta di strumenti conversazionali come ChatGPT.

Negli ultimi mesi, OpenAI ha intrapreso una serie di interventi mirati a rendere il proprio assistente virtuale non solo più efficiente, ma anche maggiormente attento ai segnali di salute mentale degli utenti. Questo impegno si traduce in un sistema capace di cogliere tempestivamente situazioni di disagio, intervenendo con risposte calibrate e, quando necessario, indirizzando verso supporto professionale.

L’attenzione di OpenAI verso il benessere psicologico degli utenti si riflette in una strategia articolata che mira a ridurre il rischio di dipendenza emotiva dall’AI. In particolare, il sistema è stato aggiornato per riconoscere in modo più efficace segnali riconducibili a disturbi psicologici quali psicosi, mania e tendenze suicide. In questi casi, le risposte di ChatGPT sono state ottimizzate per esprimere empatia, fornire messaggi pragmatici e, soprattutto, proporre contatti utili con servizi di emergenza o centri di supporto professionale locali.

ChatGPT cerca di supportare gli utenti in difficoltà

Tra le innovazioni introdotte, spiccano i promemoria automatici che invitano l’utente a interrompere conversazioni troppo prolungate, il reindirizzamento verso versioni del modello appositamente progettate per la sicurezza e l’incoraggiamento esplicito a rivolgersi a specialisti qualificati. Questa doppia azione, che mira sia a gestire situazioni di rischio immediato sia a prevenire lo sviluppo di legami impropri con l’IA, rappresenta un passo significativo verso una gestione responsabile dell’interazione uomo-macchina.

I dati raccolti da OpenAI mostrano risultati incoraggianti: le risposte considerate problematiche in contesti sensibili sono diminuite dal 65% all’80%, mentre le interazioni che alimentano la dipendenza emotiva sono calate di circa l’80%. Sebbene solo lo 0,15% degli utenti settimanali mostri segni di attaccamento emotivo al sistema, questa percentuale si traduce in numeri assoluti significativi, superando il milione di persone a livello globale. Una percentuale analoga riguarda le conversazioni che lasciano trasparire pianificazione o intento suicidario, sottolineando la necessità di interventi mirati e continui.

Alla base di questi progressi vi è una collaborazione strutturata con oltre 170 specialisti della salute mentale, che hanno contribuito a ridefinire i protocolli operativi e i meccanismi di rilevamento del disagio psicologico. Grazie al confronto con esperti clinici, OpenAI è riuscita a trovare un equilibrio tra empatia e pragmatismo, garantendo che l’assistente non diventi un surrogato delle relazioni umane, ma piuttosto uno strumento di orientamento verso il supporto professionale.

Non mancano tuttavia critiche e spunti di riflessione. Ricercatori e osservatori indipendenti evidenziano che i sistemi di rilevamento automatizzato possono incorrere in errori, generando sia falsi positivi sia falsi negativi. Inoltre, il semplice suggerimento di rivolgersi a risorse esterne può risultare insufficiente per chi si trova in una situazione di crisi acuta. Da più parti si chiede maggiore trasparenza sui criteri adottati per misurare la riduzione degli output problematici e sulle metodologie impiegate per valutare l’efficacia degli aggiornamenti.

L’iniziativa di OpenAI comprende anche strumenti per il reindirizzamento automatico verso modelli specializzati e avvisi che suggeriscono pause nelle conversazioni, al fine di interrompere eventuali dinamiche di dipendenza emotiva. Secondo gli osservatori, resta fondamentale continuare a investire in ricerca indipendente, verifiche esterne e campagne di sensibilizzazione sui limiti e le potenzialità dell’IA, affinché il suo impiego avvenga in un contesto di massima sicurezza.

Ti consigliamo anche

Link copiato negli appunti