Il mondo dei contenuti digitali si trova a un bivio cruciale: l’integrazione sempre più spinta dell’Intelligenza Artificiale sta trasformando profondamente il modo in cui i creator producono e distribuiscono video.
È proprio in questo scenario in continua evoluzione che si inserisce il recente annuncio di Neal Mohan, CEO di YouTube, che il 21 gennaio 2026 ha presentato una delle novità più discusse degli ultimi mesi: la possibilità per i creator di generare YouTube Shorts utilizzando versioni artificiali della propria immagine. Un cambiamento che promette di rivoluzionare la piattaforma, ma che porta con sé una serie di interrogativi ancora irrisolti sul fronte del consenso, della trasparenza e della tutela dei diritti.
Negli ultimi anni, gli Shorts ha raggiunto numeri impressionanti, superando i 200 miliardi di visualizzazioni quotidiane e consolidandosi come uno degli strumenti più potenti per la creazione e la condivisione di video brevi.
L’introduzione della funzione AI likeness si inserisce in un ecosistema già ricco di strumenti innovativi, come sticker, auto-dubbing e clip generate automaticamente, che mirano a rendere sempre più semplice e veloce la produzione di contenuti originali e coinvolgenti. Tuttavia, l’adozione di queste tecnologie solleva anche nuove preoccupazioni: il rischio di una perdita di autenticità, la diffusione di contenuti sintetici difficilmente distinguibili da quelli reali e la crescente difficoltà, per gli spettatori, di riconoscere ciò che è genuino da ciò che è generato artificialmente.
AI likeness per Shorts: i potenziali rischi per YouTube
Per affrontare questi rischi, YouTube ha introdotto già nell’ottobre 2025 una soluzione di likeness detection, una tecnologia avanzata in grado di rilevare quando il volto o la voce di un creator vengono riprodotti senza il suo consenso.
Questo strumento permette ai creatori di segnalare rapidamente i contenuti abusivi e di richiederne la rimozione, offrendo una prima risposta concreta alle esigenze di protezione in un ambiente sempre più esposto ai fenomeni di deepfake e alle manipolazioni digitali. Gli esperti e le associazioni di settore hanno accolto positivamente questo passo avanti, sottolineando però come la sola tecnologia non sia sufficiente: serve una cornice normativa chiara e aggiornata, capace di tutelare efficacemente i diritti d’immagine e di garantire la sicurezza di tutti gli utenti.
Restano però numerose questioni aperte che, ad oggi, non hanno ancora trovato una risposta soddisfacente. In primo luogo, come funzionerà il sistema di consenso per l’utilizzo della propria immagine digitale? Chi avrà il controllo effettivo sulla manipolazione e la diffusione di avatar creati tramite AI likeness? E ancora: in che modo verranno conteggiate le visualizzazioni e i ricavi generati da video che utilizzano avatar artificiali? Come verrà comunicato agli utenti che un determinato contenuto è stato generato tramite AI? Su questi aspetti, la piattaforma non ha ancora fornito dettagli operativi, lasciando i creator e la community in attesa di linee guida chiare e di strumenti pratici per la gestione dei propri diritti.