X interviene per frenare Grok: nuove restrizioni per tutelare i minori

X impone limiti a Grok: filtri sulle modifiche di immagini reali, generazione riservata agli abbonati e geoblock dove la legge lo richiede.
X interviene per frenare Grok: nuove restrizioni per tutelare i minori

Nel corso delle festività natalizie, il mondo della tecnologia si è trovato al centro di una tempesta regolatoria che ha coinvolto la piattaforma di intelligenza artificiale Grok, sviluppata da xAI e integrata nel social network X.

Secondo un’analisi approfondita, oltre il 50% delle immagini prodotte tra Natale e Capodanno conteneva rappresentazioni di persone in abbigliamento minimo, alcune delle quali hanno sollevato sospetti su possibili casi di CSAM (Child Sexual Abuse Material). Questo dato allarmante ha immediatamente acceso i riflettori delle autorità californiane, scatenando una reazione internazionale che ha coinvolto governi, enti regolatori e difensori della sicurezza online.

Il Procuratore Generale della California ha aperto un’indagine ufficiale su come xAI e la sua tecnologia di generazione immagini gestiscano la produzione di nudità artificiale e materiale potenzialmente legato allo sfruttamento minorile. L’esame di circa 20.000 immagini ha portato alla luce una realtà preoccupante: più della metà raffigurava soggetti seminudi, e una quota significativa sembrava coinvolgere minori, accendendo il dibattito su responsabilità etiche e legali delle piattaforme di Intelligenza Artificiale.

La risposta di X alle pesanti accuse verso Grok

La reazione di X non si è fatta attendere. La società ha dichiarato di aver adottato «misure tecnologiche per impedire che Grok consenta la modifica di immagini di persone reali in abbigliamento rivelatore». Parallelamente, la generazione di immagini è stata limitata esclusivamente agli abbonati, introducendo così una barriera d’accesso supplementare. In alcuni Paesi, è stato inoltre implementato un geoblock specifico, che vieta la creazione di immagini di persone reali in bikini, biancheria intima e indumenti simili, con l’obiettivo di ridurre il rischio di diffusione di contenuti potenzialmente dannosi.

Elon Musk, CEO della compagnia, ha voluto precisare pubblicamente di non essere a conoscenza di casi di generazione di immagini nude di minori da parte di Grok. Ha sottolineato che, con l’opzione NSFW attiva, «Grok dovrebbe consentire esclusivamente la nudità del tronco di umani immaginari adulti (non reali)», in linea con le policy già adottate da altre piattaforme di intelligenza artificiale, salvo le eccezioni richieste dalle normative locali. Tuttavia, questa dichiarazione non è bastata a placare le preoccupazioni delle autorità e degli utenti.

Malesia e Indonesia contro Grok

L’onda lunga della crisi ha travolto anche il panorama internazionale. Malesia e Indonesia hanno reagito con decisione, imponendo un blocco temporaneo all’accesso a Grok per motivi di sicurezza, legati proprio alla gestione di immagini sessuali generate dall’intelligenza artificiale. Nel frattempo, nel Regno Unito, l’ente regolatore Ofcom ha avviato un’indagine formale su xAI, valutando la possibilità di introdurre restrizioni simili a quelle già adottate in altri Paesi. Queste azioni riflettono la crescente attenzione globale verso i rischi connessi alla generazione automatica di contenuti sensibili e la necessità di garantire la tutela dei minori online.

Nonostante le contromisure tecniche annunciate da X, numerosi esperti di sicurezza e associazioni per la protezione dell’infanzia esprimono dubbi sull’efficacia reale di tali strumenti. Il filtraggio sulle modifiche di immagini reali e l’introduzione di un paywall per la generazione di contenuti possono certamente ridurre l’accesso a queste funzionalità, ma non eliminano del tutto i rischi: chi dispone di adeguate competenze tecniche può ancora aggirare le restrizioni, e i modelli di intelligenza artificiale rimangono vulnerabili all’uso improprio, inclusa la creazione di deepfake di persone reali senza consenso.

Ti consigliamo anche

Link copiato negli appunti