Non fate leggere gli esami medici alle AI: il rischio è altissimo

Il Garante Privacy avverte sui rischi di perdita di controllo dei dati sanitari caricati sulle piattaforme di intelligenza artificiale. Ecco cosa sapere.
Non fate leggere gli esami medici alle AI: il rischio è altissimo

La crescente diffusione delle tecnologie di intelligenza artificiale nell’ambito della sanità sta aprendo nuove frontiere, ma anche scenari inediti di rischio, soprattutto in relazione alla privacy dei cittadini e alla sicurezza delle informazioni personali. Il recente allarme lanciato dal Garante Privacy pone l’accento su una questione di primaria importanza: l’uso dei chatbot AI per l’interpretazione di analisi cliniche, radiografie e referti medici comporta vantaggi evidenti in termini di rapidità e accessibilità, ma espone al contempo a rischi significativi legati sia alla salute che alla gestione dei dati dei pazienti.

L’allarme del Garante Privacy

L’Autorità Garante per la Protezione dei Dati Personali (GPDP) ha manifestato forte preoccupazione per la pratica, ormai diffusa, di caricare dati sanitari sensibili su piattaforme di IA per ottenere valutazioni o suggerimenti terapeutici.

Questa tendenza, se non adeguatamente regolamentata e supervisionata, può determinare la perdita di controllo sulle proprie informazioni più riservate, con la possibilità concreta che queste vengano utilizzate per l’addestramento degli algoritmi o conservate oltre il tempo necessario.

Il rischio, sottolinea il Garante, non si limita alla violazione della tutela della privacy, ma si estende anche all’eventualità di ricevere indicazioni errate o fuorvianti in ambito sanitario.

Questo allarme del Garante Privacy arriva a pochi giorni dall’arresto di una santona che prometteva di curare il cancro con cure suggerite dall’intelligenza artificiale.

Il Regolamento europeo sull’IA e le normative correlate pongono l’accento sulla necessità di una intermediazione umana qualificata nei processi di analisi e diagnosi.

È fondamentale che le decisioni in materia di salute, soprattutto quando basate su diagnostica supportata dall’IA, siano sempre validate da un professionista medico.

Questo principio, ribadito anche dal Consiglio Superiore di Sanità, serve a garantire non solo l’accuratezza delle valutazioni, ma anche la sicurezza delle informazioni sanitarie e la protezione della dignità personale.

Che fine fanno i dati dei pazienti?

Uno degli aspetti più critici riguarda la trasparenza delle informative sulla privacy fornite dai servizi di IA. Gli utenti sono spesso poco consapevoli delle reali modalità di gestione consapevole dei dati sanitari e della sorte che attende le informazioni dopo il caricamento: vengono effettivamente cancellate o restano nei sistemi per finalità di sviluppo tecnologico? Le politiche variano da un fornitore all’altro, rendendo difficile per il cittadino esercitare un controllo pieno e informato sui propri dati.

L’attrattiva delle nuove tecnologie, con la promessa di risultati rapidi e personalizzati, non deve far dimenticare i rischi legati alla gestione dei dati sanitari sensibili. Il Garante Privacy invita tutti gli utenti a prestare la massima attenzione prima di condividere referti medici o altre informazioni personali su piattaforme online.

È indispensabile verificare attentamente le condizioni di utilizzo e le garanzie offerte in termini di tutela della privacy, valutando se i dati saranno realmente eliminati dopo l’uso o se verranno trattenuti per altri scopi.

Ti consigliamo anche

Link copiato negli appunti