A partire dal 29 ottobre 2025, OpenAI introdurrà un cambiamento significativo nelle modalità di utilizzo dei suoi sistemi di Intelligenza Artificiale, in particolare per quanto riguarda le policy che regolano le consulenze mediche, legali e finanziarie.
Questa svolta nasce dall’esigenza di limitare i rischi connessi all’affidamento di decisioni rilevanti a modelli AI, sottolineando l’importanza della supervisione umana nei processi decisionali che impattano direttamente sulla salute, sulla sfera legale e sul patrimonio personale degli utenti.
Secondo le nuove direttive, ChatGPT non potrà più essere impiegato per offrire consigli personalizzati in ambiti che richiedono una licenza professionale in determinati ambiti a meno che non sia presente il coinvolgimento diretto di un professionista autorizzato. Questa scelta non solo risponde alle crescenti preoccupazioni della comunità scientifica e normativa, ma rappresenta anche un passo avanti verso una maggiore responsabilizzazione nell’uso delle tecnologie emergenti.
Le nuove policy specificano che il modello potrà comunque continuare a svolgere un ruolo educativo, fornendo spiegazioni su principi generali, informazioni non specifiche e orientamenti di carattere generale. Tuttavia, per qualsiasi decisione che possa avere conseguenze rilevanti sulla vita delle persone, viene fortemente raccomandato di consultare esperti qualificati. In questo modo, si cerca di mantenere l’equilibrio tra l’accessibilità alle informazioni e la tutela degli utenti da potenziali rischi derivanti da errori di interpretazione o contestualizzazione tipici dei sistemi di IA.
Nuovi limiti per ChatGPT e gli altri strumenti di OpenAI
Questa iniziativa si inserisce in un contesto di crescente attenzione pubblica e regolatoria nei confronti dell’AI nei settori sensibili. Diversi esperti hanno evidenziato, infatti, i limiti intrinseci delle risposte generate dai modelli linguistici: dati non aggiornati, errori di contestualizzazione e interpretazioni non corrette possono portare a decisioni rischiose se non adeguatamente verificate da un esperto in carne e ossa. Per questo motivo, la supervisione umana viene indicata come elemento imprescindibile per garantire l’affidabilità e la sicurezza delle informazioni fornite.
Dal punto di vista operativo, le nuove linee guida prevedono che ogni risposta che si avvicini a una consulenza personalizzata debba essere supportata dall’intervento di un professionista autorizzato, oppure accompagnata da un chiaro invito a consultare uno specialista. Questa impostazione si allinea con le strategie di gestione del rischio già adottate da molte altre piattaforme tecnologiche, che vedono nell’AI uno strumento di supporto e non un sostituto del giudizio umano.
Le reazioni a questa novità sono state variegate. Da un lato, i sostenitori della regolamentazione vedono in questa misura un passo necessario per prevenire danni potenziali e rafforzare la fiducia degli utenti nei confronti delle piattaforme AI. Dall’altro, non mancano le preoccupazioni: in particolare, alcuni temono che l’introduzione di nuovi requisiti possa rallentare l’accesso alle informazioni, specialmente in quei contesti dove la presenza di professionisti qualificati è limitata e dove l’AI aveva finora rappresentato una risorsa preziosa per ottenere spiegazioni immediate e comprensibili.