RisingAttacK: la minaccia invisibile per l'AI nei veicoli autonomi

RisingAttacK, nuova tecnica che altera immagini senza modificarle visivamente, compromette sistemi AI in auto autonome e diagnostica.

La scoperta di RisingAttacK, una sofisticata tecnica di attacco informatico scoperto dai ricercatori della North Carolina State University, ha rivelato una vulnerabilità cruciale nei sistemi di Intelligenza Artificiale.

Questa tecnica manipola in modo impercettibile le immagini, ingannando i modelli di visione artificiale senza che l’occhio umano possa rilevare alcuna alterazione. Il risultato? Dispositivi come veicoli autonomi o strumenti medici possono non riconoscere oggetti critici, come pedoni o segnali stradali, con potenziali gravi implicazioni per la sicurezza.

Secondo il professor Tianfu Wu, co-autore dello studio, due immagini apparentemente identiche per l’occhio umano possono essere interpretate in modo completamente diverso dai sistemi di AI. Mentre una immagine può identificare correttamente un oggetto, l’altra potrebbe ignorarlo del tutto. Questo dimostra quanto i modelli avanzati, tra cui ResNet-50, DenseNet-121, ViTB e DEiT-B, siano vulnerabili a manipolazioni di questo tipo.

RisingAttacK è un rischio enorme per i sistemi AI

La forza di RisingAttacK risiede nella sua capacità di apportare modifiche mirate con precisione chirurgica. Sebbene questa tecnica richieda notevoli risorse computazionali, le alterazioni introdotte sono talmente sottili da risultare invisibili all’occhio umano, ma sufficienti per alterare significativamente l’interpretazione dell’AI. Wu sottolinea che tali manipolazioni possono influenzare la capacità dei sistemi di AI di riconoscere oggetti chiave, compromettendo la sicurezza stradale e altre applicazioni critiche.

I ricercatori stanno esplorando ulteriori applicazioni di RisingAttacK, anche in ambiti come i modelli linguistici di grandi dimensioni. L’obiettivo non è solo evidenziare le debolezze dei sistemi attuali, ma stimolare lo sviluppo di soluzioni più resistenti agli attacchi. Wu sottolinea che la ricerca è un invito a rafforzare le protezioni digitali in un’epoca in cui l’AI è sempre più centrale nella vita quotidiana.

Questa scoperta segna un momento cruciale nella corsa tra attacchi sempre più sofisticati e difese tecnologiche. Garantire che i sistemi autonomi possano operare in modo sicuro e affidabile, nonostante le minacce emergenti, diventa una priorità per il futuro dell’AI e delle tecnologie basate sulla visione artificiale.

Ti consigliamo anche

Link copiato negli appunti