/https://www.ilsoftware.it/app/uploads/2025/08/wp_drafter_484540.jpg)
L’utilizzo crescente dell’Intelligenza Artificiale nel settore sanitario sta cambiando rapidamente il modo in cui le persone accedono alle informazioni e ai suggerimenti per la propria salute.
Tuttavia, episodi recenti mettono in luce i rischi di affidarsi ciecamente a questi strumenti, soprattutto in assenza di un filtro medico qualificato. È il caso emblematico di un uomo di 60 anni che, dopo aver seguito un consiglio fornito da ChatGPT, si è trovato a fronteggiare una grave intossicazione da bromuro di sodio, una sostanza che gli ha provocato sintomi neurologici seri e lo ha costretto a un ricovero d’urgenza.
La vicenda, documentata dagli Annals of Internal Medicine, si è svolta quando il paziente, desideroso di ridurre l’assunzione di cloruro di sodio per motivi di salute, ha deciso di consultare il noto chatbot alla ricerca di alternative al sale da cucina. L’intelligenza artificiale, nella versione 3.5 utilizzata dall’uomo, ha suggerito tra le opzioni il bromuro di sodio, senza però fornire alcun avvertimento circa i potenziali rischi per la salute. Fidandosi della risposta, l’uomo ha iniziato a utilizzare il composto, sviluppando rapidamente una condizione chiamata bromismo.
Il bromismo è una patologia quasi dimenticata nella medicina moderna, ma era piuttosto diffusa tra la fine dell’Ottocento e l’inizio del Novecento, quando i sali di bromo venivano comunemente impiegati come sedativi. I sintomi possono essere molto gravi: il paziente ha infatti manifestato paranoia, allucinazioni, perdita di coordinazione e altri disturbi neurologici che hanno richiesto un intervento medico tempestivo. Nei casi più estremi, il bromismo può addirittura condurre al coma.
ChatGPT non è un medico
Questo episodio solleva interrogativi cruciali sull’affidabilità dell’AI quando si tratta di diagnosi medica o suggerimenti relativi alla salute. Se da un lato, infatti, sono stati riportati casi positivi — come quello di una madre che, grazie a ChatGPT, è riuscita a identificare una rara patologia neurologica del figlio dopo vari tentativi falliti da parte di specialisti — dall’altro emergono i limiti ancora evidenti di questi sistemi. Uno studio recente pubblicato sulla rivista Genes sottolinea come, anche nelle versioni più avanzate, la capacità dell’AI di riconoscere correttamente malattie rare sia ancora “molto debole”.
La stessa OpenAI, azienda sviluppatrice di ChatGPT, ha ribadito che il proprio sistema non dovrebbe mai essere utilizzato come sostituto di un consulto medico professionale. In risposta a casi come quello del bromismo, la società ha promesso miglioramenti significativi con il rilascio della futura versione GPT-5, volta a ridurre il fenomeno delle cosiddette allucinazioni — ovvero le risposte errate o fuorvianti generate dall’IA — e a fornire indicazioni più accurate e contestualizzate.