Nell’era digitale, la linea che separa realtà e finzione si assottiglia ogni giorno di più, complice l’avanzata delle truffe deepfake e l’uso sofisticato dell’Intelligenza Artificiale da parte dei cybercriminali.
Il fenomeno sta assumendo proporzioni preoccupanti: secondo le ultime analisi di Moonlock, il 2025 vedrà un incremento complessivo del 148% nelle truffe hi-tech, colpendo indistintamente aziende e privati. Non si tratta più di scenari futuristici, ma di una minaccia concreta e quotidiana che richiede una nuova consapevolezza e strategie di difesa più evolute.
Le truffe deepfake rappresentano la punta dell’iceberg di un arsenale tecnologico sempre più sofisticato. Bastano pochi secondi di audio reperiti online per replicare una voce in modo sorprendentemente fedele, oppure immagini e video estratti da profili social come LinkedIn per costruire un’identità digitale falsa, in grado di ingannare anche gli occhi più attenti. È proprio questa facilità di accesso alle informazioni personali a rendere le nuove tecniche di frode particolarmente insidiose.
Un caso emblematico che ha fatto scuola nel mondo della sicurezza informatica riguarda la società Arup. La filiale britannica dell’azienda è stata vittima di una truffa da 25 milioni di dollari orchestrata grazie a una videochiamata realizzata con tecnologia deepfake. I malintenzionati, utilizzando materiale disponibile su LinkedIn e altri siti aziendali, sono riusciti a creare un doppelgänger digitale del CFO, ingannando i colleghi e portando a termine una delle frodi più sofisticate degli ultimi anni.
Le tecniche avanzate dei cybercriminali
Ma il rischio non riguarda solo le grandi aziende. I privati cittadini sono ormai nel mirino dei cybercriminali, spesso tramite tecniche di vishing (voice phishing) che sfruttano la potenza dell’AI per simulare voci familiari o autorevoli. L’FBI ha recentemente segnalato un aumento dei casi di chiamate vocali deepfake attribuite a figure pubbliche, come politici statunitensi, finalizzate a diffondere disinformazione o a estorcere denaro.
Le tecniche di phishing AI stanno inoltre dimostrando una capacità allarmante di eludere i sistemi di sicurezza tradizionali. Una ricerca condotta da Paubox evidenzia come il 48% delle truffe basate sull’AI riesca a superare i controlli standard, lasciando utenti e organizzazioni vulnerabili a intrusioni sempre più sofisticate. Non si tratta più solo di email sospette, ma di messaggi, chiamate e videochiamate in cui ogni dettaglio è studiato per apparire autentico.
Di fronte a questo scenario, gli esperti sottolineano l’importanza di adottare nuove abitudini di sicurezza. Una delle raccomandazioni principali è quella di non cedere alla fretta: l’iniziativa Take9 suggerisce di prendersi almeno nove secondi per riflettere prima di rispondere a richieste sospette, soprattutto se arrivano tramite canali digitali. Un breve momento di pausa può fare la differenza tra cadere vittima di una truffa e smascherare il tentativo di frode.
Verificare sempre l’identità dell’interlocutore attraverso canali alternativi si rivela una strategia fondamentale. Se si riceve una richiesta insolita tramite email o messaggistica, è buona norma contattare direttamente la persona coinvolta utilizzando un altro mezzo di comunicazione. Prestare attenzione a dettagli come movimenti innaturali nei video, imperfezioni nelle immagini o sfondi anomali può inoltre aiutare a riconoscere i segnali di un contenuto manipolato.