Chatbot AI possono "assorbire" personalità utenti secondo una ricerca

Ricerca Cambridge/DeepMind mostra che i chatbot possono sviluppare personalità modulabili interagendo con gli utenti.
Chatbot AI possono

Nel panorama tecnologico contemporaneo, la capacità dell’Intelligenza Artificiale di modellare e adattare le proprie risposte secondo specifici tratti psicologici rappresenta una svolta significativa, non solo per l’innovazione, ma anche per le questioni etiche e di sicurezza che ne derivano.

Recentemente, un approfondito studio congiunto condotto dall’Università di Cambridge e di Google DeepMind ha posto l’attenzione su un tema di crescente rilevanza: la possibilità di modificare le personalità AI all’interno dei più avanzati chatbot, e le conseguenze di questa flessibilità sulle nostre interazioni quotidiane. Il lavoro dei ricercatori si è concentrato su diciotto modelli linguistici di largo impiego, tra cui spiccano quelli alla base di ChatGPT e altri chatbot noti a livello globale.

L’obiettivo era valutare in che modo la personalità delle AI possa essere plasmata tramite istruzioni mirate, misurando la coerenza e la stabilità dei profili psicologici emersi. I risultati hanno mostrato che i sistemi più evoluti non si limitano a imitare la comunicazione umana, ma sviluppano veri e propri profili comportamentali adattabili, capaci di enfatizzare tratti come fiducia, empatia e riservatezza. Questa caratteristica, se da un lato promette di rivoluzionare la personalizzazione nei servizi di assistenza e nella creazione di contenuti, dall’altro apre scenari complessi in termini di responsabilità e trasparenza.

Chatbot AI adattano personalità a utenti: la scoperta inquietante

Uno degli aspetti più innovativi emersi dalla ricerca riguarda la possibilità di rendere pubblici sia il dataset sia il codice utilizzato per il framework di analisi, una scelta che gli autori considerano essenziale per promuovere uno sviluppo consapevole e condiviso della tecnologia. Tuttavia, la semplice disponibilità di strumenti di controllo non basta: occorrono parametri oggettivi e meccanismi di verifica per garantire che la personalizzazione delle personalità AI non sfoci in rischi imprevisti, come la manipolazione psicologica o la diffusione di propaganda attraverso canali automatizzati.

L’adozione di chatbot AI con tratti comportamentali modulabili apre a vantaggi indiscutibili, soprattutto in ambiti dove la flessibilità di tono ed empatia può migliorare la qualità dell’interazione con l’utente. Tuttavia, emergono criticità di rilievo: un chatbot progettato per essere particolarmente persuasivo potrebbe indurre a errori di interpretazione in settori delicati come la salute mentale, l’educazione o la comunicazione politica. In questi contesti, la possibilità che gli utenti sviluppino legami emotivi distorti con l’AI è stata definita dagli autori come AI psychosis, un fenomeno che solleva interrogativi profondi sull’impatto psicologico delle interazioni prolungate con agenti digitali.

A fronte di queste sfide, le autorità di regolamentazione e i professionisti della salute mentale richiedono interventi mirati: trasparenza obbligatoria sull’identità degli agenti artificiali, restrizioni alle funzionalità persuasive in presenza di minori o soggetti vulnerabili, e l’introduzione di standard omogenei per l’audit dei modelli linguistici. Le aziende tecnologiche, dal canto loro, sostengono che la trasparenza e il testing pubblico rappresentino un equilibrio sufficiente tra innovazione e tutela dell’utente, ma gli osservatori indipendenti ribattono che senza standard condivisi e sanzioni efficaci, la sola pubblicazione del codice non garantisce un controllo reale.

Ti consigliamo anche

Link copiato negli appunti