Cybercriminali nascondono malware nelle immagini generate dagli LLM

Scoperta una tecnica che sfrutta immagini per nascondere prompt malevoli e aggirare i sistemi di sicurezza AI.
Cybercriminali nascondono malware nelle immagini generate dagli LLM

Nel mondo digitale odierno, le minacce informatiche stanno assumendo forme sempre più sofisticate e subdole, sfruttando tecniche avanzate per eludere anche i sistemi di difesa più evoluti.

Un esempio eclatante arriva dalla recente scoperta di una vulnerabilità che coinvolge la Intelligenza Artificiale e l’elaborazione delle immagini digitali, portando alla luce nuovi rischi per la protezione dei dati e la privacy degli utenti. Si tratta di un attacco silenzioso, paragonabile a un moderno cavallo di Troia che, anziché nascondersi nel legno, si cela nei pixel di una semplice immagine.

Secondo una ricerca condotta da Trail of Bits, è ora possibile occultare prompt malevoli all’interno di file immagine apparentemente innocui. Quando questi file vengono caricati su piattaforme basate su large language model (LLM) o su piattaforme multimodali, come Gemini CLI e Vertex AI Studio, un processo tecnico chiamato downscaling di immagini può inavvertitamente far emergere istruzioni nascoste, rendendole leggibili e interpretabili dai modelli di AI come vere e proprie richieste dell’utente.

Come lavorano i cybercriminali

Il cuore di questa tecnica risiede nell’uso dell’algoritmo di bicubic resampling, comunemente adottato per ottimizzare le dimensioni delle immagini. Durante la fase di ridimensionamento, elementi testuali che erano invisibili nell’immagine originale diventano improvvisamente decifrabili dal sistema, permettendo così l’esecuzione di comandi non autorizzati. Questa manipolazione, conosciuta come prompt injection, si rivela particolarmente insidiosa poiché avviene in modo del tutto trasparente per l’utente, il quale non si accorge di nulla mentre le istruzioni malevole vengono eseguite in background.

Le implicazioni pratiche sono estremamente preoccupanti. Gli esperti hanno dimostrato che, sfruttando questa vulnerabilità, è possibile ottenere l’invio automatico di informazioni personali, come dati di Google Calendar, verso indirizzi email esterni, senza che l’utente fornisca alcun consenso. Ciò rappresenta una grave minaccia per la privacy e può portare a casi di furto di identità o altre forme di compromissione dei dati sensibili.

Un aspetto particolarmente allarmante è la facilità con cui questa tecnica può essere replicata. Grazie a strumenti open source come Anamorpher, anche utenti con competenze tecniche limitate possono creare immagini manipolate, amplificando il rischio di diffusione di questi attacchi. I tradizionali sistemi di firewall e le comuni security suite non sono progettati per individuare questo tipo di minacce, rendendo necessario un ripensamento delle strategie di difesa.

Come evitare rischi?

Gli esperti del settore suggeriscono alcune contromisure immediate: limitare le dimensioni delle immagini in ingresso, implementare una fase di anteprima del contenuto ridimensionato e richiedere conferme esplicite per tutte le operazioni sensibili. Tuttavia, la soluzione più efficace rimane l’integrazione di sistemi di sicurezza che siano nativamente in grado di rilevare e bloccare i tentativi di manipolazione attraverso le immagini, garantendo così una protezione realmente efficace in un panorama tecnologico in continua evoluzione.

L’emergere di questa vulnerabilità mette in evidenza la necessità di un cambiamento di paradigma nella gestione della protezione dei dati e della sicurezza informatica. Mentre l’adozione dell’AI continua a espandersi in settori sempre più cruciali, diventa indispensabile sviluppare soluzioni che sappiano anticipare e contrastare anche le minacce più invisibili, tutelando utenti e aziende da rischi che fino a poco tempo fa sembravano appartenere solo alla fantascienza.

Ti consigliamo anche

Link copiato negli appunti