/https://www.ilsoftware.it/app/uploads/2023/07/radio-polizia-tetra-vulnerabilita.jpg)
La crescente adozione dell’Intelligenza Artificiale nelle attività delle forze dell’ordine apre nuovi scenari di efficienza, ma porta con sé anche profonde incertezze sul fronte della trasparenza e della tutela dei diritti.
È quanto emerge dall’analisi della Electronic Frontier Foundation (EFF) sulla piattaforma Axon Draft One, un sistema che promette di rivoluzionare la redazione dei rapporti di polizia partendo dalle registrazioni delle bodycam, ma che solleva diversi interrogativi.
Axon Draft One, già in uso in Colorado dalla scorsa estate, sfrutta una versione modificata di ChatGPT per trascrivere e rielaborare automaticamente le conversazioni raccolte durante gli interventi degli agenti. In teoria, il sistema è stato pensato per alleggerire il carico burocratico sulle forze dell’ordine, consentendo agli agenti di dedicare più tempo al lavoro sul campo. Tuttavia, la piattaforma presenta limiti strutturali che impediscono qualsiasi verifica esterna sulle modalità di stesura dei verbali.
Il nodo principale, secondo l’EFF, riguarda l’assenza di una funzione di salvataggio delle bozze e di tracciamento delle modifiche nei rapporti di polizia. In altre parole, non è possibile distinguere in modo chiaro e documentato quali parti del rapporto siano state effettivamente generate dall’AI e quali invece siano state modificate o integrate dall’agente. Questo vuoto normativo e tecnologico si inserisce in un contesto dove, in molte giurisdizioni, non esiste nemmeno l’obbligo di dichiarare l’uso di strumenti di AI nella stesura dei documenti ufficiali.
Lo strumento Axon Draft One ha suscitato una marea di polemiche
L’azienda produttrice, Axon, difende il proprio sistema sottolineando la presenza di una revisione umana obbligatoria e di un registro digitale che documenta l’utilizzo dello strumento, teoricamente non modificabile. Tuttavia, la Electronic Frontier Foundation ribatte che queste misure risultano “praticamente inutili”, poiché non consentono un vero audit né permettono di identificare sistematicamente tutti i rapporti prodotti tramite Axon Draft One o gli agenti che vi fanno ricorso.
Il rischio più rilevante è che l’AI venga utilizzata come scudo per coprire eventuali errori, omissioni o distorsioni nei rapporti. Senza un registro delle versioni, diventa impossibile determinare se un’imprecisione sia stata introdotta dall’algoritmo o dall’operatore umano, rendendo più complessa la valutazione dell’impatto di questi strumenti sui procedimenti di giustizia.
Non solo: l’EFF ha rilevato la presenza di bug che permettono agli agenti di aggirare i controlli di sicurezza, presentando rapporti generati dall’AI senza un’effettiva revisione umana. Questo scenario alimenta il timore che la promessa di maggiore efficienza si traduca, nella pratica, in una semplice approvazione automatica dei documenti, senza le dovute garanzie di accuratezza e responsabilità.
A fronte di queste criticità, alcuni stati americani stanno valutando interventi di regolamentazioni apposite. In California, ad esempio, è stata proposta una legge che obbligherebbe a conservare la prima bozza generata dall’AI e a indicare esplicitamente le parti del rapporto redatte tramite AI. Alcuni uffici dei procuratori hanno già deciso di vietare l’uso di Axon Draft One, temendo che l’adozione indiscriminata di questi strumenti possa minare la validità delle indagini e compromettere il diritto alla difesa.