/https://www.ilsoftware.it/app/uploads/2025/08/wp_drafter_484962.jpg)
L’integrazione della intelligenza artificiale nel settore sanitario rappresenta una delle più grandi rivoluzioni tecnologiche degli ultimi anni, ma solleva anche interrogativi cruciali sul futuro delle competenze umane. Un recente studio pubblicato su The Lancet Gastroenterology & Hepatology mette in luce una questione che sta diventando sempre più centrale: la crescente dipendenza dai sistemi automatizzati rischia di compromettere le capacità diagnostiche autonome dei professionisti della salute, un fenomeno definito con il termine de skilling.
Più AI e meno skill
Secondo la ricerca, condotta su un gruppo di endoscopisti polacchi impegnati nella prevenzione del cancro al colon, l’utilizzo costante di AI nei processi di diagnostica ha prodotto un effetto inatteso. Quando privati del supporto tecnologico, questi specialisti hanno mostrato una capacità di individuazione delle lesioni inferiore del 6% rispetto ai colleghi meno abituati a delegare l’analisi alle macchine.
Un dato che evidenzia come la presenza pervasiva dell’intelligenza artificiale non solo potenzi la precisione, ma possa anche ridurre la reattività e la prontezza dei medici di fronte a situazioni in cui la tecnologia non è disponibile o risulta inefficace.
Questa evoluzione tecnologica pone interrogativi profondi sulla natura stessa delle competenze cliniche e sulla necessità di ridefinire i percorsi di formazione medica. Se da un lato i sistemi automatizzati offrono vantaggi indiscutibili in termini di standardizzazione, velocità e accuratezza, dall’altro rischiano di erodere il patrimonio di esperienza e intuito che da sempre caratterizza la professione medica. In un contesto in cui l’errore umano può avere conseguenze gravi, la capacità di mantenere un controllo critico sulle decisioni suggerite dall’AI diventa fondamentale.
Allucinazioni mediche
Un ulteriore elemento di riflessione riguarda la questione dei malfunzionamenti e delle cosiddette “allucinazioni” dell’AI, ossia situazioni in cui il sistema genera risultati errati o non affidabili, ma credibili.
A inizio agosto, ad esempio, è saltata fuori che il modello Google Med-Gemini ha letteralmente inventato una parte di un cervello umano, quando gli è stato chiesto di analizzare dei referti medici. Si è poi scoperto che l’errore (gravissimo) dipendeva da un refuso nel codice del modello LLM, ma ormai i buoi erano usciti dalla stalla.