New York: legislatori contro chatbot AI che trattano medicina e ambito legale

Il progetto di legge S7263 di New York vieta ai chatbot di dare consulenza legale e medica e impone obblighi di trasparenza.

La crescente diffusione dell’Intelligenza Artificiale sta portando le istituzioni a interrogarsi su come garantire la sicurezza dei cittadini senza frenare l’innovazione tecnologica.

In questo scenario, lo Stato di New York si trova oggi al centro di un acceso dibattito legislativo, grazie a una proposta di legge che mira a ridefinire i confini tra tecnologia e responsabilità umana. Al centro della discussione vi è la S7263, un disegno di legge che, se approvato, potrebbe costituire un vero e proprio spartiacque nella regolamentazione dei servizi automatizzati.

La proposta, sostenuta con determinazione dalla senatrice Kristen Gonzalez, si basa su un principio chiaro e inequivocabile: «Cura reale da professionisti reali». Questo slogan riassume l’intento di una normativa che vuole impedire ai chatbot e ai sistemi AI di oltrepassare il limite tra informazione generica e vera e propria consulenza legale o consulenza medica. L’obiettivo è tutelare gli utenti da rischi concreti derivanti da errori in ambiti delicati come la salute e il diritto, dove una risposta sbagliata può avere conseguenze gravi e, talvolta, irreversibili.

La legge S7263 di New York mira a limitare i chatbot

Il percorso della S7263 ha già raggiunto un primo traguardo significativo, ottenendo l’approvazione unanime dal comitato Internet and Technology del Senato americano. Se la legge dovesse superare anche le prossime fasi e ricevere la firma del governatore, l’entrata in vigore sarebbe fissata a novanta giorni dall’approvazione, imponendo alle piattaforme tecnologiche tempi stretti per adeguarsi ai nuovi obblighi normativi.

Ma cosa cambierebbe concretamente per gli operatori? Innanzitutto, le piattaforme che offrono servizi basati su chatbot dovranno garantire la massima trasparenza, apponendo avvertenze ben visibili che segnalino la natura artificiale delle risposte fornite. Inoltre, le aziende potrebbero trovarsi esposte a potenziali azioni legali qualora i loro sistemi dovessero fornire risposte che sconfinano nell’esercizio di professioni regolamentate dallo Stato, come appunto la consulenza legale o medica.

Non sorprende che la proposta abbia suscitato reazioni contrastanti. Da un lato, i sostenitori della S7263 sottolineano come la diffusione incontrollata di consigli da parte di sistemi automatizzati rappresenti un rischio concreto, soprattutto in contesti dove la precisione delle informazioni è fondamentale. La possibilità che un utente possa ricevere indicazioni errate in materia di salute o diritto viene vista come una minaccia alla sicurezza pubblica, capace di generare danni anche irreparabili.

Dall’altro lato, non mancano le voci critiche. Secondo alcuni operatori del settore, una regolamentazione troppo stringente potrebbe indurre le aziende a disattivare funzioni utili, privando milioni di persone di un primo orientamento facilmente accessibile e a basso costo. Il timore è quello dell’«over-blocking»: un taglio indiscriminato delle capacità dei modelli AI, adottato come misura preventiva per evitare possibili contenziosi legali. Un approccio di questo tipo, avvertono gli esperti, rischia di compromettere la qualità informativa complessiva e di rallentare il progresso tecnologico.

Ti consigliamo anche

Link copiato negli appunti