Deepfake su YouTube inarrestabili: scoperte nuove frodi finanziarie

Which scopre deepfake su YouTube che usano volti noti per promuovere investimenti truffaldini. Piattaforme invitate a rimuovere contenuti.
Deepfake su YouTube inarrestabili: scoperte nuove frodi finanziarie

Nel mondo digitale contemporaneo, il confine tra ciò che è reale e ciò che è manipolato si fa ogni giorno più sottile.

Lo sviluppo incessante delle tecnologie di Intelligenza Artificiale sta alimentando un fenomeno allarmante: la creazione di contenuti ingannevoli che mettono a rischio la sicurezza degli utenti e la fiducia collettiva nell’informazione. È proprio in questo scenario che emergono casi emblematici di manipolazione, come quello svelato da Which, l’associazione britannica di tutela dei consumatori, che ha portato alla luce un’ondata di deepfake diffusi sulle principali piattaforme social.

Deepfake: i casi Martin Lewis e Keir Stramer

Durante una recente indagine, Which ha identificato una serie di video manipolati in cui i volti di personalità note come Martin Lewis, celebre giornalista finanziario, e il primo ministro Keir Starmer venivano sfruttati per promuovere presunte opportunità di investimento.

Questi contenuti, apparentemente autentici, presentavano offerte finanziarie fasulle, spacciate come garantite dallo Stato, inducendo ignari spettatori a cadere in frodi finanziarie sofisticate e ben orchestrate. L’indagine ha rivelato come la sofisticazione delle tecnologie AI abbia raggiunto un livello tale da rendere i deepfake praticamente indistinguibili dai video reali per l’utente medio.

Il rischio non si limita più solo ai video: i truffatori hanno iniziato a costruire siti falsi che imitano le principali testate giornalistiche, rendendo ancora più credibili le loro trame ingannevoli e complicando ulteriormente il panorama della sicurezza digitale.

La responsabilità delle piattaforme digitali e l’intervento delle autorità

L’esplosione del fenomeno pone interrogativi pressanti sul ruolo e sulla responsabilità delle grandi piattaforme tecnologiche. YouTube, insieme a X e Meta, è stata chiamata da Which ad adottare misure più incisive per individuare e rimuovere i contenuti manipolati. La richiesta è chiara: occorre un’azione proattiva che vada oltre la semplice segnalazione, coinvolgendo un maggiore controllo e una collaborazione stretta con le autorità.

In risposta a queste preoccupazioni, YouTube ha introdotto uno strumento che permette ai creatori di contenuti di segnalare i video clonati tramite AI. Tuttavia, gli esperti dell’associazione ritengono che tali strumenti, seppur utili, rischino di essere insufficienti di fronte alla velocità con cui si diffondono le truffe online. Il fenomeno richiede un impegno costante e un aggiornamento continuo delle strategie di difesa.

Sul fronte istituzionale, la FCA (Financial Conduct Authority) ha già messo in guardia i cittadini sui rischi derivanti da influencer finanziari non verificati. Tuttavia, la diffusione di deepfake che riproducono le sembianze di figure autorevoli complica notevolmente la capacità di distinguere tra informazioni attendibili e tentativi di truffa. Le piattaforme dichiarano di investire in tecnologie e risorse umane dedicate all’identificazione di contenuti manipolati, ma gli esperti di sicurezza sottolineano come molte campagne fraudolente si sviluppino attraverso una strategia multicanale: video, siti falsi e account social fasulli agiscono in sinergia per ingannare il pubblico.

Questo scenario mette in evidenza l’urgenza di una regolamentazione più stringente e aggiornata, capace di responsabilizzare le aziende tecnologiche e proteggere efficacemente i consumatori da minacce sempre più evolute.

Ti consigliamo anche

Link copiato negli appunti