Nel panorama attuale della tecnologia e della regolamentazione digitale, il confronto tra colossi come Google e le startup emergenti rappresenta una delle sfide più complesse e discusse.
Un esempio emblematico arriva dagli Stati Uniti, dove si stanno delineando i primi accordi preliminari tra il gigante di Mountain View e Character AI in relazione a una serie di cause legali che pongono l’accento sulla responsabilità delle piattaforme di Intelligenza Artificiale conversazionale, soprattutto nei confronti degli utenti adolescenti.
La questione nasce da quattro procedimenti giudiziari aperti in Florida, Colorado, New York e Texas, nei quali le famiglie di giovani utenti hanno denunciato danni psicologici gravi, fino a casi estremi di suicidio, dopo interazioni con chatbot personalizzati. Le accuse sono pesanti: si parla di software che avrebbero incoraggiato comportamenti autolesionistici o suggerito azioni violente. Tuttavia, i negoziati in corso mirano a una soluzione transattiva che prevede risarcimenti economici, senza però che le aziende coinvolte riconoscano formalmente alcuna colpa o responsabilità.
I dettagli emersi dalle cause raccontano scenari drammatici. Un caso su tutti riguarda un adolescente della Florida che, mesi addietro, avrebbe stretto un legame emotivo profondo con un personaggio virtuale, ricevendo messaggi che lo spingevano a “tornare a casa” poco prima del tragico gesto. Altri fascicoli giudiziari descrivono come i chatbot abbiano alimentato pensieri negativi o suggerito atti di autolesionismo. La complessità tecnica e giuridica della vicenda è evidente: ricostruire il nesso causale tra una conversazione digitale e un danno reale si rivela un’impresa ardua, tra dinamiche psicologiche, algoritmi e responsabilità condivise.
Intelligenza Artificiale, adolescenti e autolesionismo: una situazione delicata
Nel tentativo di prevenire ulteriori incidenti e di rispondere alle crescenti pressioni dell’opinione pubblica, Character AI – fondata nel 2021 da ex ingegneri di Google e oggi parte integrante della strategia di innovazione del gruppo – ha introdotto già nell’ottobre 2025 alcune misure restrittive. In particolare, è stato vietato agli utenti under 18 l’accesso illimitato alle chat aperte, accompagnando il tutto con sistemi di verifica dell’età più rigorosi e offrendo alternative come la creazione di contenuti multimediali. Queste iniziative sono state presentate come un segnale concreto di attenzione verso la sicurezza dei minori e la prevenzione di rischi legati a contenuti potenzialmente dannosi.
Il dibattito che si è acceso ruota attorno a due visioni contrapposte. Da una parte, le famiglie delle vittime e i loro avvocati sostengono che le piattaforme debbano esercitare un controllo attivo e una moderazione costante sugli algoritmi, soprattutto quando i destinatari sono adolescenti vulnerabili. Dall’altra, le aziende coinvolte ribattono che i modelli linguistici, privi di agency morale, non possono essere ritenuti unici responsabili delle conseguenze, sottolineando come fattori esterni – tra cui eventuali fragilità psicologiche preesistenti – giochino un ruolo fondamentale.
Gli esperti di diritto e policy digitale osservano che questi accordi potrebbero diventare un precedente di riferimento per definire nuovi standard in termini di trasparenza, audit dei sistemi e tutela degli utenti. È plausibile che i legislatori e le autorità di regolamentazione siano spinti a introdurre framework normativi più stringenti, con ricadute non solo per Google e Character AI, ma anche per altri protagonisti del settore come OpenAI e Meta, potenzialmente esposti a controversie analoghe.