/https://www.ilsoftware.it/app/uploads/2025/07/windows-defender.jpg)
L’avanzata dell’intelligenza artificiale sta cambiando radicalmente il panorama della cybersecurity, introducendo scenari sempre più complessi e minacce sofisticate. Un recente sviluppo, presentato da Kyle Avery di Outflank, promette di rivoluzionare ulteriormente il settore: un innovativo strumento basato sull’AI è riuscito a bypassare Microsoft Defender for Endpoint con un tasso di successo dell’8%, una percentuale sorprendente considerando le difese implementate nei sistemi di endpoint detection and response di Microsoft.
Questo nuovo approccio, che verrà approfondito durante la conferenza Black Hat di Las Vegas (2-7 agosto 2025), rappresenta un passo avanti rispetto alle tradizionali applicazioni dell’intelligenza artificiale nel campo del cybercrime.
Malware AI: come funzionano
Fino ad oggi, l’AI era stata impiegata principalmente per generare codice malevolo semplice o per rendere più convincenti le campagne di phishing. Il progetto di Avery, invece, introduce una nuova generazione di malware in grado di evolversi autonomamente e di eludere sistemi di difesa avanzati come Microsoft Defender.
Il cuore di questa innovazione risiede nell’adozione del reinforcement learning, una metodologia che consente all’AI di migliorare le proprie strategie di evasione in modo autonomo, senza la necessità di accedere a vasti archivi di malware preesistenti. Grazie a questa tecnica, il modello apprende dai propri errori e ottimizza le sue azioni ricevendo ricompense ogni volta che riesce a generare un malware in grado di aggirare i controlli di sicurezza.
La tecnologia alla base di questa soluzione si fonda su modelli di nuova generazione come OpenAI o1 e DeepSeek R1, progettati per eccellere in compiti specifici tramite un sistema di ricompense verificabili. Tuttavia, Avery ha scelto di utilizzare Qwen 2.5, un modello open source, integrandolo in un ambiente di test strutturato che include Microsoft Defender e meccanismi automatici per valutare in tempo reale l’efficacia del malware prodotto.
Il funzionamento del sistema è tanto semplice quanto efficace: ogni volta che l’intelligenza artificiale riesce a creare un malware funzionante, riceve una “ricompensa”, perfezionando così progressivamente la propria capacità di eludere i controlli. Il risultato è un tasso di successo dell’8%, che permette di ottenere un malware completamente invisibile ai sistemi difensivi Microsoft dopo circa dodici tentativi. Questo dato supera nettamente le performance di modelli concorrenti, come quelli sviluppati da Anthropic e DeepSeek, che non raggiungono nemmeno l’1% di efficacia.
I malware AI costano poco
Uno degli aspetti più preoccupanti di questa tecnologia è la sua economicità. Il sistema, infatti, può essere eseguito su hardware consumer e richiede un investimento relativamente contenuto, stimato tra i 1.500 e i 1.600 dollari. Ciò significa che strumenti AI driven così avanzati sono ormai alla portata di un numero sempre maggiore di potenziali attaccanti, abbassando notevolmente la soglia d’ingresso per attività di hacking sofisticate e aumentando i rischi per aziende e utenti privati.
Questa democratizzazione degli strumenti di attacco pone la comunità della cybersecurity di fronte a una sfida senza precedenti. Le strategie difensive tradizionali rischiano di diventare rapidamente obsolete in un contesto in cui l’intelligenza artificiale può essere addestrata specificamente per aggirare ogni tipo di barriera. La corsa agli armamenti digitali si fa sempre più serrata, con aziende e ricercatori impegnati nello sviluppo di nuove contromisure capaci di fronteggiare minacce sempre più sofisticate e AI driven.