Clonazione vocale tramite IA: come funziona e come proteggerti

La clonazione vocale tramite IA è una truffa sempre più diffusa e difficile da individuare: ecco in cosa consiste.

Dal momento in cui ChatGPT ha fatto la sua apparizione, questa piattaforma è stata sfruttata tanto in modo positivo quanto nel contesto degli attacchi informatici.

D’altro canto, per i cybercriminali l’occasione era troppo ghiotta e, negli scorsi mesi, si sono susseguite diverse notizie rispetto all’utilizzo improprio dell’IA. In questo senso, l’ultima novità nel contesto del crimine informatico, è la cosiddetta clonazione vocale tramite IA.

Questa viene utilizzata dai truffatori per simulare la voce di una persona reale e indurre le vittime a cedere denaro o informazioni sensibili tramite il raggiro.

Utilizzando anche solo un breve video clip in cui è presente la voce estrapolata da qualche social media, i truffatori possono facilmente creare un clone vocale di quella persona. In tal modo, possono chiamare i loro familiari, amici o colleghi sfruttando la stessa, magari simulando rapimenti o situazioni di pericolo per poi chiedere riscatti o simili.

Il mese scorso è stato riferito che i truffatori hanno clonato la voce di una ragazza di 15 anni dell’Arizona, hanno chiamato sua madre fingendo un rapimento e chiedendo un milione di dollari. Per fortuna, la donna ha appurato che la figlia era al sicuro, ma questo tipo di attacco dimostra quanto la clonazione vocale tramite IA sia potenzialmente molto pericolosa.

Un’altra comune truffa vocale AI è la “truffa del nonno“, in cui i truffatori utilizzano la voce clonata di un nipote per ottenere denaro dai nonni di un ragazzo/a. La Federal Trade Commission americana, a tal proposito,  ha messo in guardia su altre truffe di clonazione vocale, visto che si tratta di attacchi talvolta difficili da identificare.

Come evitare di cadere trappola di una truffa con clonazione vocale tramite IA

Ad allarmare la potenziale vittima dovrebbero essere i seguenti segnali:

  • una richiesta urgente di denaro;
  • la richiesta di inviare criptovalute o buoni regalo;
  • una qualità della registrazione vocale perfetta e l’assenza di rumori di fondo;
  • incoerenza in ciò che viene raccontato dalla voce familiare.

Teoricamente, sarebbe utile per chiunque di noi stabilire una parola chiave da utilizzare solo in caso di urgenza, per dimostrare che il dialogo è reale e non è una trappola. Non perdere la calma in caso di urgenza e avere sempre un pizzico di scetticismo può essere un altro modo per evitare guai.

Non da meno è l’aspetto prevenzione. In tal senso, non pubblicare troppo materiale sui social network è essenziale. Questi, infatti, sono una miniera di informazioni per i cybercriminali. Soprattutto audio e video, infatti, possono essere utilizzati con efficacia nel contesto delle clonazioni vocali.

A tal proposito, poi, dare uno sguardo alle impostazioni della privacy può essere una buona idea, magari stringendo un po’ le maglie

Fonte: news.trendmicro.com

Ti consigliamo anche

Link copiato negli appunti