/https://www.ilsoftware.it/app/uploads/2025/07/wp_drafter_482247.jpg)
Le tecnologie avanzate spesso finiscono per essere utilizzate in modi inaspettati e talvolta dannosi. Un esempio recente è il caso di Google Veo 3, un generatore di video basato sull’Intelligenza Artificiale, che, nonostante il suo scopo iniziale di promuovere la creatività, è stato associato alla proliferazione di video razzisti e antisemiti su TikTok.
Lanciato a maggio, Veo 3 ha prodotto brevi filmati di alta qualità che perpetuano stereotipi offensivi, raffigurando persone di colore in ruoli criminali o negativi e prendendo di mira persone di religione ebraica. Un rapporto dettagliato di MediaMatters ha documentato l’ampia diffusione di questi contenuti, evidenziando le lacune nelle politiche di moderazione contenuti di TikTok.
Nonostante le linee guida della piattaforma vietino esplicitamente i discorsi d’odio, l’inefficacia nell’applicazione delle regole ha permesso la circolazione incontrollata di tali contenuti. La presenza del watermark di Veo 3 su molti di questi contenuti ha sollevato interrogativi sulla responsabilità di Google nella gestione delle sue tecnologie.
Veo 3: guardrail e sicurezza insufficienti
Le politiche di sicurezza integrate in Veo 3 sembrano meno rigorose rispetto ai modelli precedenti. Test indipendenti hanno dimostrato che è possibile generare contenuti problematici con semplici prompt, sollevando dubbi sull’efficacia delle protezioni del sistema.
La reazione della comunità online è stata mista. Mentre alcuni condannano fermamente i contenuti, altri li amplificano attraverso commenti e condivisioni, creando un circolo vizioso. TikTok, come piattaforma, si trova ora sotto pressione per affrontare seriamente il problema e dimostrare un impegno reale nella lotta contro la diffusione di contenuti dannosi. Per la piattaforma, di recente al centro di altre polemiche in quanto sfruttata per diffondere malware, si tratta di un nuovo e gravoso problema che dovrà affrontare.
Con l’evoluzione continua dei modelli di AI, i rischi di utilizzi impropri diventano sempre più concreti. La collaborazione tra sviluppatori, piattaforme e regolatori è essenziale per definire un quadro normativo che garantisca un uso etico e responsabile di queste tecnologie.