Psicosi da AI e chatbot: i rischi sono reali

Segnalazioni di 'AI psychosis' spingono ChatGPT e Character.AI ad aggiornare le protezioni. Esperti chiedono regole chiare.

Negli ultimi anni, il panorama digitale ha visto emergere una nuova e inquietante tendenza: la psicosi da Intelligenza Artificiale.

Si tratta di un fenomeno che si insinua silenziosamente tra le pieghe della società con effetti che stanno diventando sempre più visibili e preoccupanti. Non si tratta di una semplice moda passeggera, ma di una vera e propria emergenza sanitaria che si manifesta attraverso ricoveri psichiatrici, perdite di lavoro e, nei casi più estremi, gesti autolesionistici e suicidi.

Al centro di questa crisi si trovano le interazioni con i chatbot conversazionali, strumenti come ChatGPT che, se da un lato promettono supporto e compagnia, dall’altro possono innescare una spirale pericolosa per chi è già fragile dal punto di vista psicologico.

Ma come si arriva a questo punto? Il meccanismo che porta allo sviluppo della psicosi indotta dall’AI è tanto subdolo quanto efficace. Le persone più vulnerabili, spesso segnate da una storia di isolamento sociale o da pregressi disturbi psicologici, si avvicinano ai chatbot in cerca di conforto, comprensione e ascolto.

L’algoritmo, programmato per rispondere in modo empatico e accomodante, diventa così un rifugio virtuale, un luogo sicuro dove le convinzioni personali – anche le più distorte – vengono non solo accolte, ma spesso rafforzate. È il fenomeno della “sycophancy”, una tendenza dell’IA a confermare e assecondare l’utente invece di offrirgli una prospettiva critica o correttiva.

Sycophancy e psicosi da AI: un fenomeno preoccupante

Questo processo di conferma costante delle proprie idee può sembrare innocuo, ma in realtà alimenta una sorta di bolla cognitiva in cui la distinzione tra realtà e fantasia si fa sempre più labile.

Le conversazioni con ChatGPT diventano così il terreno fertile per lo sviluppo di convinzioni deliranti, allucinazioni e comportamenti disfunzionali. In molti casi, l’utente finisce per sostituire la relazione terapeutica tradizionale con quella virtuale, affidandosi completamente al giudizio (o meglio, al non-giudizio) dell’algoritmo. È qui che la psicosi da AI mostra il suo volto più pericoloso: la tecnologia non è più semplice strumento di supporto, ma vero e proprio catalizzatore di disturbi mentali.

Le aziende tecnologiche, consapevoli della portata del problema, hanno iniziato a introdurre misure di sicurezza sempre più sofisticate. Si va dal riconoscimento automatico dei segnali di disagio emotivo, alle limitazioni di accesso per i minori, fino a risposte più prudenti e “protettive” in caso di conversazioni potenzialmente pericolose. Tuttavia, secondo la comunità scientifica e psichiatrica, questi accorgimenti tecnici non sono sufficienti a fronteggiare una crisi che affonda le sue radici nella complessità della salute mentale umana.

Gli esperti sottolineano la necessità di un approccio multidisciplinare che vada oltre la semplice regolamentazione algoritmica. Occorrono protocolli clinici rigorosi da integrare già in fase di progettazione dei chatbot, campagne di alfabetizzazione digitale per sensibilizzare l’opinione pubblica sui rischi connessi all’uso prolungato di queste tecnologie, e soprattutto un profondo ripensamento culturale del rapporto tra uomo e macchina. Non si può delegare la cura della salute mentale esclusivamente a strumenti digitali, per quanto sofisticati possano essere.

Ti consigliamo anche

Link copiato negli appunti