Intelligenza Artificiale & Cybersecurity: l'FBI lancia l'allarme

L'Intelligenza Artificiale è pericolosa? La preoccupazione dell'FBI: dai malware alle applicazioni nel contesto deepfake.
Intelligenza Artificiale & Cybersecurity: l'FBI lancia l'allarme

Che l’Intelligenza Artificiale possa essere, nelle mani sbagliate, uno strumento molto pericoloso, era già noto. Le affermazioni dell’FBI in tal senso, sono una chiara conferma di questi timori.

Stando all’agenzia governativa americana, infatti, un numero allarmante di persone sfrutta la tecnologia AI per attacchi di phishing e per sviluppare malware, con conseguenze disastrose per il contesto della cybersecurity.

Sistemi come ChatGPT, una volta aggirati i filtri, sono in grado di creare agenti malevoli sofisticati in grado di aggirare i più recenti sistemi di sicurezza senza troppe difficoltà. Tutto ciò ha reso alla portata di tutti la possibilità di realizzare malware poliformici che, fino a pochi mesi fa, erano prerogativa dei programmatori più esperti.

Mentre modelli come ChatGPT e Claude 2, almeno teoricamente, sono considerabili come “giardini recintati”, le forze dell’ordine si stanno concentrando sul mondo dell’IA open source.

In questo contesto, le persone possono addestrare modelli di intelligenza artificiale in base alle loro esigenze specifiche, con conseguenze del tutto imprevedibili. Casi come WormGPT, che consente agli hacker di accedere ai cloni ChatGPT focalizzati nel settore black-hat, aprono scenari inquietanti per il prossimo futuro.

Dai malware poliformici a WormGPT: tutti i rischi dell’intelligenza artificiale

Gli aggressori possono automatizzare l’intero processo di creazione di pagine Web e campagne e-mail utilizzando questi strumenti, di fatto riducendo i tempi di organizzazione di una campagna malware.

I problemi per l’FBI, però, non si limitano alla questione virus informatici. L’AI generativa, sfruttata per utilizzare deepfake, può essere molto pericolosa. La possibilità di creare video e dialoghi che sembrano in tutto e per tutto reali, ha potenzialità devastanti a livello di cybercrimine e non solo.

Per risolvere questo problema, le principali aziende di intelligenza artificiale come OpenAI, Microsoft, Google e Meta si sono impegnate a introdurre una vera e propria “filigrana” per andare a segnalare i contenuti preparati tramite tali tecnologie. Tuttavia, OpenAI ha recentemente chiuso il suo strumento apposito, noto come AI Classifier, che non si è rivelato adeguatamente efficace.

L’ampia disponibilità di tecnologie AI generative open source utilizzabili privatamente è una realtà con cui bisogna ormai fare i conti e, a tal proposito, entità come l’FBI stanno cominciando a preoccuparsi per i tanti utilizzi illegali di tali piattaforme.

Ti consigliamo anche

Link copiato negli appunti