La questione della trasparenza nei progetti legati all’Intelligenza Artificiale agentica si sta rivelando un nodo cruciale.
Secondo una recente indagine condotta dal MIT su 67 agenti AI, emerge una realtà in cui solo il 19% dei progetti dichiara formalmente di possedere una policy di sicurezza, mentre una percentuale molto più ampia, pari al 70%, si limita a produrre semplice documentazione tecnica, senza fornire reali garanzie sulle misure di tutela implementate.
Questi dati sollevano interrogativi profondi sull’effettiva maturità del settore e mettono in luce un divario sempre più marcato tra la comunicazione delle funzionalità e la divulgazione delle pratiche di sicurezza. Se meno del 10% degli sviluppatori ha sottoposto i propri sistemi a valutazioni esterne, si comprende come la fiducia nelle soluzioni proposte resti spesso confinata alle promesse dei vendor, senza un reale riscontro indipendente.
Uno studio MIT lancia l’allarme
Lo studio del MIT fotografa una tendenza ormai consolidata: all’interno delle comunità di ricerca e tra le aziende che operano nel settore, l’enfasi viene posta prevalentemente sulle capacità operative degli agenti AI.
Si moltiplicano le dimostrazioni, i benchmark e gli esempi d’uso, ma si tende a sorvolare sui meccanismi difensivi messi in atto per prevenire malfunzionamenti e utilizzi impropri. Questa asimmetria informativa non solo genera incertezza tra le istituzioni e le aziende intenzionate a integrare questi sistemi nei propri processi, ma ostacola anche il confronto e il miglioramento condiviso delle pratiche di sicurezza.
Il problema si acuisce quando si considerano le caratteristiche specifiche dei sistemi agentici. Questi ultimi, infatti, combinano tecniche di apprendimento automatico, pianificazione logica e interfacce verso risorse esterne – come API, accesso al web o strumenti fisici – ampliando notevolmente la superficie di attacco e i possibili vettori di rischio.
La mancanza di uno schema uniforme per certificare e comunicare le misure di sicurezza rende difficile valutare in modo oggettivo la solidità delle soluzioni proposte e limita la possibilità di adottare best practice condivise a livello di settore.
Alcuni sviluppatori, intervistati nell’ambito dell’indagine, giustificano la loro riluttanza a una trasparenza totale con la necessità di proteggere i sistemi da potenziali attacchi: secondo questa visione, rendere pubblici tutti i dettagli sulle vulnerabilità e sulle difese implementate significherebbe esporre il fianco a malintenzionati, compromettendo la stessa efficacia delle contromisure adottate. Tuttavia, questa posizione rischia di tradursi in un boomerang, minando la fiducia degli stakeholder e ostacolando la diffusione di una cultura della responsabilità condivisa.
L’opinione degli esperti
Gli esperti, proprio per rispondere a queste criticità, propongono l’adozione di protocolli standardizzati per la pubblicazione della documentazione sulla sicurezza, l’esecuzione di valutazioni esterne indipendenti, l’organizzazione di attività di red teaming sistematico e la conduzione di test su scenari avversariali. Queste pratiche, già in parte adottate nel mondo del codice aperto, rappresentano una strada percorribile per aumentare la trasparenza e innalzare il livello di affidabilità dei sistemi agentici.
Nel frattempo, regolatori e organismi di standardizzazione stanno valutando l’introduzione di requisiti minimi di trasparenza per le applicazioni ad alto rischio, consapevoli che la rapidità dell’innovazione in questo ambito impone un coordinamento stretto tra attori privati, centri di ricerca e pubblica amministrazione. Solo così sarà possibile evitare che la corsa alla performance lasci indietro la sicurezza e la tutela degli utenti finali.