Negli ultimi anni, il panorama della sicurezza informatica è stato profondamente trasformato dall’irruzione di nuove tecnologie che, se da un lato promettono una produttività senza precedenti, dall’altro aprono scenari inediti di rischio.
In prima linea in questa rivoluzione ci sono gli assistenti AI, strumenti progettati per facilitare e velocizzare i flussi di lavoro, ma sempre più spesso impiegati dai cybercriminali come vettori di attacco sofisticati e difficili da intercettare.
Gli esperti di Check Point hanno recentemente portato alla luce un meccanismo di attacco particolarmente subdolo: attraverso la costruzione di URL contenenti dati codificati, i criminali convincono gli assistenti a “riassumere” contenuti apparentemente innocui.
In realtà, dietro questa richiesta si cela un’operazione di esfiltrazione dati estremamente raffinata, in cui le informazioni sensibili vengono estratte e trasmesse senza attivare le difese tradizionali. Il traffico generato appare legittimo e passa inosservato, rendendo la rilevazione dell’attacco una vera sfida anche per i team di sicurezza più esperti.
Gli assistenti AI possono diventare una trappola per la sicurezza
Ma la minaccia non si limita al furto di informazioni. I ricercatori delineano scenari ancora più preoccupanti, dove l’AI generativa non si limita a eseguire comandi, ma diventa il vero e proprio “cervello decisionale” di malware di nuova generazione.
Questi codici malevoli interrogano l’assistente per valutare l’ambiente operativo: si trovano in una rete aziendale di alto valore o in un ambiente di test? In base alle risposte, il malware decide autonomamente se attivarsi, moltiplicando la propria capacità di elusione e di attacco selettivo. Un esempio emblematico di come le funzioni di command and control si stiano evolvendo grazie all’AI, rendendo le difese tradizionali sempre meno efficaci.
Nel frattempo, la proliferazione di applicazioni fraudolente come Moltbot aggiunge un ulteriore livello di rischio. I ricercatori hanno dimostrato che è possibile aggirare i filtri di sicurezza degli assistenti attraverso prompt apparentemente innocui: basti pensare al caso in cui una semplice storia per bambini viene trasformata in dettagliate istruzioni operative per creare strumenti di esfiltrazione dati.
Episodi recenti, come il furto di chiavi OpenAI API e il compromettimento di agenti AI autonomi, testimoniano quanto la superficie d’attacco si stia espandendo man mano che questi strumenti entrano nei processi aziendali quotidiani.
Copilot e Grok potenziali obiettivi del cybercrimine
La sfida per le organizzazioni è doppia. Da una parte, diventa sempre più complesso distinguere il traffico legittimo generato da strumenti come Copilot o Grok da quello malevolo che sfrutta gli stessi canali e infrastrutture.
Dall’altra, emerge la necessità di una governance rigorosa nell’uso di queste tecnologie. Le soluzioni raccomandate dagli esperti si concentrano su un monitoraggio comportamentale delle interazioni con gli assistenti, la disattivazione del browsing web su sistemi non autorizzati, l’applicazione del principio del minimo privilegio e una segmentazione attenta delle reti aziendali.
È fondamentale che i team di sicurezza implementino controlli specifici per rilevare gli abusi legati all’AI generativa: tra questi, il controllo degli URL esterni, la validazione delle richieste, il rate limiting e l’attivazione di alert su pattern anomali di comportamento.
Non meno importante è la formazione degli utenti: la consapevolezza rimane un pilastro della difesa, poiché riconoscere applicazioni false e rifiutare richieste sospette può prevenire molte infezioni iniziali.