Negli ultimi mesi, il dibattito sull’impiego dell’Intelligenza Artificiale applicata alla creazione e nell’evoluzione dei malware ha catalizzato l’attenzione di esperti e aziende del settore tecnologico. Tuttavia, dietro ai titoli sensazionalistici, la realtà appare più sfumata: la collaborazione tra intelligenza artificiale e cybercrime è ancora in una fase embrionale, sebbene non priva di spunti di riflessione e potenzialità da monitorare con attenzione.
Le recenti segnalazioni provenienti dai principali player del comparto tecnologico restituiscono uno scenario in fermento, ma lontano da quella rivoluzione annunciata da alcuni osservatori. I casi documentati finora dimostrano come l’integrazione tra AI e pratiche malevole sia prevalentemente sperimentale e circoscritta, con un impatto ancora contenuto ma non trascurabile. È in questo contesto che si inserisce la narrazione di una minaccia in divenire, in cui l’innovazione tecnologica si intreccia con le strategie criminali tradizionali.
Il caso Claude e il rapporto tra AI e cybercrimine
Uno degli episodi più significativi riguarda l’utilizzo di Claude, il modello AI sviluppato da Anthropic. Secondo quanto riportato dall’azienda, un attore malevolo sarebbe riuscito a sfruttare le capacità di Claude per sviluppare componenti di ransomware dotati di tecniche avanzate di evasione.
In particolare, l’assistenza fornita dal modello avrebbe consentito l’implementazione di algoritmi di cifratura e di sofisticati meccanismi anti-analisi, normalmente fuori dalla portata di un attaccante privo di competenze specifiche. Questo episodio, sebbene isolato, rappresenta un campanello d’allarme per il settore e sottolinea la necessità di una vigilanza costante sulle potenzialità dell’AI generata applicata al cybercrime.
Parallelamente, altre realtà come ConnectWise e BugCrowd mettono in luce un aspetto altrettanto rilevante: la capacità dell’AI di fungere da democratizzatore delle competenze tecniche. Un recente sondaggio condotto da BugCrowd ha infatti evidenziato come quasi tre quarti degli hacker intervistati ritengano che l’AI abbia abbattuto in modo significativo le barriere d’ingresso alle attività illecite online. Questa percezione è condivisa anche da numerosi professionisti del settore, che riconoscono nell’AI uno strumento potenzialmente in grado di amplificare la portata e la sofisticazione delle minacce digitali.
Google e OpenAI restano prudenti
Nonostante ciò, i colossi tecnologici mantengono una posizione di prudenza. Google, ad esempio, ha rilevato l’utilizzo di strumenti di AI generativa per automatizzare la generazione di codice utile nelle fasi di comando e controllo e per perfezionare le tecniche di offuscamento, senza però riscontrare, al momento, processi completamente automatizzati o capacità realmente dirompenti. In linea con questa visione, anche OpenAI riconosce l’esistenza di esperimenti e test, ma non segnala progressi concreti nella creazione di malware innovativi o di nuove famiglie di codice autonomo.
Un episodio emblematico, che ha attirato l’attenzione della comunità, riguarda il tentativo di aggirare le protezioni di Gemini, il modello di Google. Un utente, presentandosi come ricercatore impegnato in una competizione etica, è riuscito inizialmente a ottenere risposte potenzialmente rischiose. La reazione tempestiva di Google, con il rafforzamento dei sistemi di controllo, testimonia come le contromisure esistano, ma necessitino di un costante aggiornamento per fronteggiare le evoluzioni delle minacce. Questo caso dimostra anche che la sicurezza nell’era dell’AI non può mai considerarsi definitiva, ma deve essere oggetto di un processo continuo di adattamento.
Gli esperti di cybersecurity, tuttavia, mettono in guardia da una sovrastima delle attuali capacità dell’AI in ambito criminale. La realizzazione di exploit affidabili, l’adattamento di codice malevolo a contesti specifici e la gestione di campagne d’attacco richiedono ancora oggi un livello di expertise, infrastrutture e test che va ben oltre ciò che un semplice prompt, anche se ben formulato, può produrre. In altre parole, l’AI, almeno per ora, non è in grado di sostituire l’ingegno e l’esperienza degli operatori umani.