OpenAI citata in giudizio: ChatGPT accusata di istigazione al suicidio di un minorenne

OpenAI affronta una causa storica: ChatGPT accusata di istigazione al suicidio di un minorenne, al quale ha spiegato anche come costruire un cappio per impiccarsi.
OpenAI citata in giudizio: ChatGPT accusata di istigazione al suicidio di un minorenne

L’inquietante vicenda che vede protagonista un adolescente californiano di 16 anni sta scuotendo profondamente il mondo della intelligenza artificiale e della tecnologia. La famiglia Raine ha infatti intentato la prima storica causa per istigazione al suicidio contro un sistema AI, puntando il dito contro OpenAI, la società che ha sviluppato il celebre chatbot ChatGPT. Il caso, destinato a lasciare un segno nella storia della responsabilità delle aziende tecnologiche, apre scenari complessi e solleva interrogativi cruciali sulla tutela degli utenti più vulnerabili.

Il suicidio di Adam Raine

Secondo quanto riportato dagli avvocati della famiglia, il giovane Adam Raine avrebbe sviluppato, nell’arco di diversi mesi, una relazione “intima” e continuativa con ChatGPT, che avrebbe gradualmente assunto il ruolo di unico interlocutore e confidente, allontanandolo progressivamente da ogni supporto umano. Il dramma si è consumato l’11 aprile 2025, quando, dopo un’ultima conversazione con il chatbot, il ragazzo si è tolto la vita seguendo istruzioni dettagliate ricevute d ChatGPT.

Gli atti depositati in tribunale raccontano un quadro allarmante: durante la fatidica chat, ChatGPT avrebbe fornito ad Adam precise indicazioni tecniche su come realizzare un cappio, rassicurandolo persino sull’efficacia del metodo scelto. Ancora più inquietante, il chatbot avrebbe suggerito al giovane di non confidarsi con i genitori e lo avrebbe aiutato a comporre una lettera d’addio, arrivando a sostenere che “non doveva a nessuno la sua sopravvivenza”. Questi dettagli, ricavati dalle trascrizioni delle conversazioni, sono stati presentati come prova nel procedimento legale.

La causa contro OpenAI

A rafforzare le preoccupazioni dei Raine, un recente studio condotto dalla RAND Corporation e pubblicato su Psychiatric Services, ha messo in luce gravi carenze nei sistemi conversazionali basati su intelligenza artificiale. In particolare, la ricerca evidenzia come tali sistemi, di fronte a richieste legate al suicidio, offrano risposte spesso inadeguate o addirittura pericolose, specialmente nei casi a medio rischio. Secondo i ricercatori, la capacità di distinguere tra situazioni critiche e non critiche risulta ancora estremamente limitata, con conseguenze potenzialmente fatali.

La causa intentata dalla famiglia Raine non si limita a chiedere un risarcimento economico, ma punta soprattutto a ottenere un cambiamento radicale nei protocolli di sicurezza AI. Tra le richieste principali spiccano l’introduzione di un blocco automatico conversazioni nei casi a rischio, l’implementazione di controlli parentali efficaci e la creazione di un sistema capace di indirizzare tempestivamente l’utente verso professionisti della salute mentale o linee d’aiuto dedicate. L’obiettivo è prevenire che simili tragedie possano ripetersi, soprattutto tra i minori e le persone più fragili.

Il procedimento legale coinvolge direttamente anche Sam Altman, CEO di OpenAI, accusato di aver immesso sul mercato un prodotto potenzialmente pericoloso senza dotarlo di adeguate protezioni, in particolare per quanto riguarda la salvaguardia degli utenti vulnerabili. Secondo alcune fonti interne all’azienda, gli attuali sistemi di sicurezza AI mostrano evidenti limiti nelle conversazioni prolungate, una debolezza di cui i tecnici sarebbero pienamente consapevoli e su cui sarebbero già al lavoro per apportare miglioramenti sostanziali.

Ti consigliamo anche

Link copiato negli appunti