L’evoluzione dell’Intelligenza Artificiale nel contesto della navigazione web apre scenari di grande interesse e, allo stesso tempo, di profonda incertezza.
Se da un lato i browser agentici AI promettono di rivoluzionare la nostra esperienza online, automatizzando compiti e semplificando la ricerca di informazioni, dall’altro si fanno strada preoccupazioni legate alla loro effettiva affidabilità. Un recente studio, pubblicato dalla società di cybersecurity Guardio, mette in evidenza un aspetto spesso trascurato: questi strumenti, nati per aumentare la nostra sicurezza digitale, possono in realtà trasformarsi in veicoli di nuove vulnerabilità.
Nel rapporto intitolato “Scamlexity”, Guardio ha condotto un’analisi approfondita su Comet, il browser AI sviluppato da Perplexity, portando alla luce una serie di falle che rischiano di compromettere la fiducia degli utenti nei confronti di queste tecnologie emergenti. L’indagine rivela come, nonostante l’adozione di sofisticati algoritmi di AI, Comet sia risultato particolarmente esposto a frodi online e attacchi di phishing, fallendo in situazioni in cui anche un utente poco esperto sarebbe riuscito a individuare il pericolo.
I test fanno emergere pericoli inaspettati
Durante i test, gli esperti di Guardio hanno sottoposto Comet a una serie di scenari realistici: il browser AI ha effettuato acquisti su siti chiaramente sospetti, ha inserito dati personali in moduli di phishing e ha persino scaricato file dannosi seguendo istruzioni nascoste – una tecnica nota come prompt injection. Questi comportamenti mettono in discussione la capacità delle soluzioni AI di distinguere tra attività legittime e truffe digitali, sollevando interrogativi sulla reale efficacia dei sistemi di protezione integrati.
La radice del problema risiede nella natura stessa dei browser agentici AI: programmati per agire in modo autonomo, sono privi di quel “buon senso” che guida l’utente umano nell’evitare situazioni rischiose. La loro tendenza a seguire ciecamente le istruzioni, senza contestualizzare le richieste o riconoscere segnali di allarme, li rende facili bersagli per i cybercriminali. In un’epoca in cui i giganti della tecnologia – da Microsoft a Google, fino a OpenAI – stanno investendo ingenti risorse nello sviluppo di assistenti digitali sempre più evoluti, questa vulnerabilità assume una portata ancora maggiore.
Il paradosso è evidente: la tecnologia pensata per proteggerci diventa, in alcuni casi, la nostra principale vulnerabilità. Gli esperti sottolineano la necessità di implementare sistemi di rilevamento delle truffe digitali molto più avanzati, capaci di anticipare le mosse dei malintenzionati e di adattarsi alle nuove minacce in tempo reale. Solo così sarà possibile mantenere un equilibrio tra la comodità offerta dall’automazione e la salvaguardia della nostra identità digitale.