AI e Deepfake: aziende devono ripensare sicurezza e controlli d'accesso

Con il 61% delle aziende preoccupate per l'intelligenza artificiale e il 60% vittima di deepfake, servono controlli di accesso.
AI e Deepfake: aziende devono ripensare sicurezza e controlli d'accesso

Il panorama della sicurezza informatica aziendale ha subito una profonda trasformazione negli ultimi anni, segnando il passaggio da una visione incentrata esclusivamente sulle minacce esterne a una nuova consapevolezza: oggi, il vero rischio può annidarsi proprio all’interno delle organizzazioni.

Come sottolinea Sebastien Cano, Senior Vice President of Cybersecurity Products di Thales, il fulcro della discussione si sposta su un punto critico: la Intelligenza Artificiale non rappresenta più soltanto un’opportunità di crescita e innovazione, ma si configura sempre più come una potenziale minaccia interna.

Le aziende, nel tentativo di accelerare la digitalizzazione e automatizzare i processi, hanno concesso alle tecnologie di AI accessi estesi e privilegi che spesso non sono stati accompagnati da un adeguato livello di controllo e verifica.

I dati sono chiari: il 61% delle imprese individua proprio nell’AI la principale fonte di rischio per la sicurezza dei dati aziendali. A questo si aggiunge un dato ancora più allarmante: il 48% delle organizzazioni ha subito danni reputazionali legati a contenuti deepfake, mentre quasi il 60% è stato vittima di attacchi sofisticati che sfruttano queste stesse tecnologie.

Questo scenario mette in evidenza come le minacce interne stiano assumendo forme nuove e sempre più difficili da intercettare, costringendo le aziende a rivedere in profondità le proprie strategie di difesa.

I due volti di un problema da non sottovalutare

Il problema si sviluppa su due livelli distinti ma strettamente interconnessi. Da un lato, le organizzazioni stanno abilitando sistemi automatizzati con permessi eccessivi, rendendoli inconsapevolmente dei vettori di rischio. Dall’altro, i cybercriminali utilizzano strumenti generativi per orchestrare attacchi sofisticati: dalla clonazione vocale dei dirigenti, a video artefatti in grado di manipolare i mercati, fino ai già citati deepfake costruiti con una precisione che sfida anche gli esperti più preparati.

In questo contesto, il concetto di minacce interne va completamente ridefinito. L’integrazione massiccia dell’AI nei flussi operativi ha spostato l’ago della bilancia: oggi le aziende delegano alle macchine responsabilità critiche senza però applicare i medesimi livelli di controllo riservati agli utenti umani.

Più della metà delle imprese non ha ancora adattato i propri programmi di sicurezza per rispondere a questi rischi emergenti, lasciando così spazio ad agenti automatizzati che, in assenza di regole stringenti, possono comportarsi come veri e propri insider: divulgare dati sensibili, autorizzare transazioni non autorizzate, compromettere pipeline di sviluppo.

I potenziali rischi

La risposta a questa nuova minaccia richiede un ripensamento radicale delle strategie di controlli di accesso. È fondamentale segmentare gli accessi, implementare autenticazioni forti e mantenere audit dettagliati di tutte le operazioni effettuate dai sistemi automatizzati. Solo così è possibile ridurre il rischio che l’automazione oltrepassi i confini della sicurezza, trasformandosi in un pericoloso punto debole.

Un altro aspetto cruciale riguarda l’esplosione del fenomeno deepfake e le sue ripercussioni legali e reputazionali. Gli attacchi basati su contenuti audiovisivi falsificati stanno generando interrogativi profondi: come attribuire responsabilità legale? Come garantire l’autenticità delle prove digitali in sede giudiziaria? Come tutelare i consumatori da impersonificazioni dannose? Gli esperti chiedono l’introduzione di standard obbligatori per tracciare l’origine dei contenuti generati dall’IA e sanzioni proporzionate per chi abusa di queste tecnologie in modo fraudolento.

Ti consigliamo anche

Link copiato negli appunti