L’avanzata dell’Intelligenza Artificiale sta aprendo scenari inquietanti che toccano da vicino la sicurezza e la dignità delle donne.
Una nuova ondata di video AI sta invadendo le principali piattaforme social, alimentando un dibattito acceso tra esperti, legislatori e utenti. Questi contenuti, realizzati con tecnologie sempre più sofisticate, mostrano scene di strangolamento femminile di un realismo sconcertante, spingendo molti a chiedersi se il confine tra realtà e finzione non sia ormai diventato troppo sottile.
In questo scenario, la risposta delle piattaforme e delle istituzioni si rivela ancora una volta frammentaria e spesso inadeguata, lasciando spazio a fenomeni di normalizzazione della violenza.
Secondo quanto riportato da esperti di sicurezza digitale, l’AI rischia di trasformarsi in un’arma a doppio taglio: se da un lato promette innovazione e progresso, dall’altro diventa uno strumento per la produzione e la diffusione di contenuti pericolosi. I video AI che stanno circolando negli ultimi mesi sono brevi, durano una decina di secondi, ma sono capaci di lasciare un segno profondo. Le immagini raffigurano figure femminili sintetiche, realizzate digitalmente, che vengono aggredite in modo esplicito e realistico. Spesso, i titoli sensazionalistici accompagnano queste clip, spingendo la viralità e alimentando un clima di morbosa attenzione.
Innovazione e polemiche: Sora 2 sotto la lente d’ingrandimento
Non passa inosservata la presenza del watermark di Sora 2, l’avanzato strumento di generazione video sviluppato da OpenAI, su molti di questi contenuti. Tuttavia, negli ultimi tempi, sono apparse versioni prive di questa identificazione, segno che gli utenti stanno trovando nuovi modi per aggirare le protezioni, rimuovendo le filigrane o utilizzando piattaforme alternative. Questa capacità di eludere i controlli dimostra come la tecnologia, se non adeguatamente regolamentata, possa sfuggire di mano anche agli sviluppatori più attenti.
La reazione delle piattaforme social è stata, finora, tutt’altro che uniforme. Nel caso di TikTok, l’account responsabile della diffusione dei video incriminati è stato rimosso a seguito delle segnalazioni della stampa. Una risposta rapida, che però sembra più una reazione a posteriori che una reale prevenzione. Diversa la situazione su X (ex Twitter), dove i contenuti sono rimasti online nonostante le ripetute denunce da parte degli utenti. Gli account coinvolti mostrano dinamiche sospette: dopo aver condiviso per mesi clip televisive apparentemente innocue, da ottobre scorso hanno iniziato a pubblicare esclusivamente materiale violento, segnalando un chiaro cambio di strategia e di obiettivo.
Le implicazioni di questa nuova tendenza sono molteplici e profonde. Dal punto di vista tecnologico, la qualità dei video AI ha raggiunto livelli tali da rendere estremamente difficile distinguere tra contenuto reale e contenuto artificiale. Questo non solo mette a rischio la capacità degli utenti di riconoscere la verità, ma apre anche la strada a forme di manipolazione e disinformazione sempre più sofisticate.
Le mosse dei governi
Alcuni governi stanno iniziando a muoversi per arginare il fenomeno. Il Regno Unito, ad esempio, ha annunciato l’intenzione di rendere illegale qualsiasi rappresentazione pornografica di strangolamento, riconoscendo il potenziale dannoso di questi contenuti anche quando non si tratta di atti realmente commessi.
Parallelamente, cresce la pressione sugli sviluppatori di OpenAI e sulle principali piattaforme affinché vengano introdotte misure di prevenzione più efficaci. Tra le soluzioni proposte, si parla di filigrane avanzate e non rimovibili, sistemi di rilevamento automatico dei contenuti problematici e tracciamento delle risorse computazionali impiegate nella generazione dei video.