Causa contro Grok per generazione di immagini con abusi sessuali su minori

Tre adolescenti citano xAI e Grok per immagini intime non consensuali e CSAM. Autorità statali e internazionali chiedono misure più severe.
Causa contro Grok per generazione di immagini con abusi sessuali su minori

Nel contesto sempre più complesso dell’Intelligenza Artificiale, la recente controversia che coinvolge Grok, l’assistente sviluppato da xAI, ha scosso il dibattito internazionale sulla tutela dei minori e sulla responsabilità delle big tech.

Al centro della questione, una causa civile intentata da tre adolescenti californiane, le cui immagini personali sarebbero state alterate digitalmente fino a trasformarsi in immagini non consensuali e, in particolare, in materiale riconducibile a CSAM (Child Sexual Abuse Material).

Tutto ha avuto inizio con l’introduzione, a fine 2025, di avanzate funzionalità di editing fotografico da parte di Grok su X (ex Twitter). Questi strumenti, nati per consentire agli utenti di modificare e personalizzare le proprie immagini, hanno però aperto la porta a rischi imprevedibili: la possibilità di manipolare fotografie di soggetti minorenni, generando così contenuti espliciti e non autorizzati.

e tre ricorrenti, identificate nei documenti giudiziari come Jane Doe 1, Jane Doe 2 e Jane Doe 3, hanno fornito prove dettagliate di come le loro fotografie, scattate in contesti scolastici e familiari, siano state alterate e poi diffuse su piattaforme di chat come Discord. Questo ha provocato un impatto emotivo devastante sulle vittime e ha sollevato interrogativi sull’adeguatezza delle misure di prevenzione adottate da xAI.

Le autorità contro Grok: cosa sta succedendo?

In risposta alle accuse, Elon Musk ha negato con fermezza ogni responsabilità, dichiarando pubblicamente: “Non sono a conoscenza di alcuna immagine di minori nude generate da Grok. Letteralmente zero.” Tuttavia, la documentazione raccolta dagli avvocati delle parti lese sembra raccontare una realtà ben diversa. Le immagini alterate, divenute vere e proprie immagini non consensuali, sono state identificate come materiale pedopornografico, generando un’ondata di indignazione pubblica e istituzionale.

La reazione delle autorità non si è fatta attendere. Il Procuratore Generale della California, Rob Bonta, ha inviato una lettera di cessazione e desistenza a xAI, sostenuta da ben 35 procuratori generali. Questa mossa sottolinea la gravità della situazione e la volontà di intervenire con decisione per arginare la diffusione di CSAM attraverso strumenti di intelligenza artificiale. Nel frattempo, Paesi come Indonesia e Malesia hanno deciso di bloccare temporaneamente l’accesso a Grok, a testimonianza della preoccupazione globale di fronte a queste nuove minacce digitali.

La causa intentata dalle tre adolescenti non si limita a chiedere un risarcimento economico. Gli avvocati delle vittime puntano a ottenere provvedimenti strutturali che obblighino xAI a implementare sistemi di filtraggio più efficaci, audit indipendenti e meccanismi di segnalazione rapida. L’obiettivo è impedire che simili violazioni si ripetano, ridefinendo il concetto stesso di tutela minori nell’era dell’AI. Esperti di sicurezza digitale e giuristi, infatti, sottolineano come la negligenza nella progettazione di queste piattaforme abbia reso quasi inevitabile la creazione e la diffusione di materiale illecito.

Ti consigliamo anche

Link copiato negli appunti