Google ha dichiarato di aver bloccato un attacco informatico che sfruttava strumenti di Intelligenza Artificiale su scala industriale per campagne automatizzate.
L’episodio conferma un fenomeno che nel settore della sicurezza informatica viene osservato da mesi: gruppi criminali e operatori statali stanno integrando modelli generativi nei propri workflow offensivi.
Fino a pochi anni fa creare campagne phishing convincenti richiedeva competenze linguistiche specifiche e adattamenti manuali per ogni lingua o bersaglio. Oggi un modello LLM produce migliaia di varianti credibili in pochi minuti, abbassando drasticamente le barriere operative del cybercrime.
Come l’AI generativa sta cambiando gli attacchi informatici
L’utilizzo offensivo dell’AI va ben oltre la semplice scrittura di email phishing.
I gruppi cyber stanno sperimentando molteplici tecniche: modelli avanzati creano messaggi grammaticalmente corretti in decine di lingue, eliminando gli errori che tradizionalmente aiutavano a identificare le truffe. Gli attaccanti usano inoltre strumenti AI per generare pagine false, simulare conversazioni aziendali, costruire profili social credibili e personalizzare gli attacchi analizzando dati pubblici da LinkedIn, email e social network.
Nel mondo malware stanno emergendo sistemi capaci di automatizzare porzioni dello sviluppo offensivo. Molti attori aggirano i filtri di sicurezza dei modelli pubblici tramite prompt engineering avanzato, jailbreak o modelli open source modificati localmente. L’aspetto più pericoloso però non è la qualità tecnica del codice generato, ma la capacità di scalare rapidamente operazioni prima limitate dalle risorse umane disponibili.
Parallelamente crescono gli abusi legati ai deepfake audio e video. Le piattaforme AI moderne replicano voci umane con pochi secondi di campionamento e generano avatar realistici. Numerose aziende hanno già segnalato tentativi di frode basati su videoconferenze false, messaggi vocali sintetici e impersonificazione di dirigenti. La combinazione tra modelli linguistici, sintesi vocale e generazione video crea un ecosistema offensivo molto più credibile rispetto alle truffe tradizionali.
La risposta di Google e delle piattaforme AI commerciali
Le grandi aziende AI stanno investendo in sistemi multilivello per il monitoraggio degli abusi.
Google ha spiegato di utilizzare analisi comportamentale, monitoraggio delle query, rilevamento anomalie e correlazione con attività cyber conosciute. Nel caso recentemente bloccato, l’azienda ha identificato pattern compatibili con campagne automatizzate su larga scala e ha interrotto l’accesso alle risorse coinvolte. Molti dettagli operativi non sono stati divulgati pubblicamente per evitare che i gruppi criminali adattino rapidamente le proprie tecniche.
Sul fronte difensivo, Google integra modelli AI in Gmail, Chrome e Workspace per bloccare spam, phishing e malware prima che raggiungano gli utenti. Anche le altre piattaforme AI commerciali, tra cui OpenAI, Anthropic e Microsoft, implementano controlli automatici per individuare richieste sospette e tentativi di bypass delle policy di sicurezza.
Il problema resta però strutturale: le stesse capacità utili per sviluppatori e aziende possono essere sfruttate per attività offensive. L’AI è ormai entrata stabilmente nell’arsenale cyber globale, e per aziende e pubbliche amministrazioni la conseguenza più concreta è l’aumento della sofisticazione media degli attacchi, accessibile oggi anche a operatori con competenze limitate.