/https://www.ilsoftware.it/app/uploads/2025/07/Gemini_phishing-login-ai-v0.jpg)
La crescente diffusione dell’AI sta rivoluzionando molti settori, ma non sempre in modo positivo. Un caso emblematico è rappresentato da v0, uno strumento sviluppato da Vercel, che semplifica la creazione di siti web grazie all’intelligenza artificiale. Tuttavia, la stessa semplicità può diventare un’arma nelle mani dei cybercriminali, alimentando un’ondata di sofisticati cyberattacchi.
v0 viene usato per il phishing
Secondo un’indagine del team di Threat Intelligence di Okta, i criminali informatici stanno sfruttando v0 e altri strumenti AI simili per creare pagine di login false con un realismo senza precedenti. Queste pagine di accesso contraffatte, quasi indistinguibili dalle originali, sono progettate per sottrarre credenziali autentiche, mettendo a rischio sia utenti privati che sistemi aziendali.
L’aspetto visivo non è l’unico elemento replicato: anche funzionalità di backend vengono emulate per rendere l’esperienza utente assolutamente credibile.
Una delle strategie più insidiose adottate dai malintenzionati è l’hosting di questi siti fraudolenti su piattaforme ufficiali come quelle di Vercel. Questo conferisce loro un’apparenza di legittimità che riesce a eludere i tradizionali sistemi di rilevamento delle minacce. Una volta ottenute le credenziali, gli attaccanti possono accedere ai sistemi compromessi come utenti legittimi o vendere i dati rubati sul dark web.
Non c’è solo v0
Il problema non si limita a v0. Su repository come GitHub, abbondano cloni di v0.dev e soluzioni artigianali, tutte potenziate dall’AI. Questi strumenti rendono semplice, veloce ed economica la creazione di pagine fraudolente, rendendola accessibile anche ai criminali informatici meno esperti.
Per contrastare questa minaccia, Okta suggerisce misure preventive come l’implementazione dell’autenticazione multi-fattore, l’adozione del principio del privilegio minimo e una verifica rigorosa di ogni nuovo endpoint prima di interagirvi.
Nonostante gli sforzi delle aziende tecnologiche per limitare l’uso malevolo delle proprie API, la democratizzazione degli strumenti basati su AI ha reso il phishing avanzato un problema strutturale. Questo costringe le organizzazioni a rivedere completamente le proprie strategie di sicurezza informatica, adottando un approccio proattivo e integrato per proteggere dati e sistemi critici.