Studio rivela perché dovresti sempre trattare bene ChatGPT

Essere cortesi con ChatGPT e gli assistenti vocali non è solo galateo digitale: può influenzare i comportamenti e le relazioni.
Studio rivela perché dovresti sempre trattare bene ChatGPT

In un mondo in cui la tecnologia si insinua con sempre maggiore pervasività nelle nostre abitudini quotidiane, il modo in cui ci rivolgiamo alle macchine diventa uno specchio delle trasformazioni sociali in atto.

Un gesto apparentemente banale come impartire un comando vocale a un assistente digitale cela, in realtà, una serie di interrogativi che toccano la nostra stessa identità e la qualità delle relazioni umane. La questione non è solo tecnica: si tratta di comprendere come la crescente interazione con strumenti come ChatGPT e Alexa possa modificare, spesso in modo sottile e graduale, il nostro modo di comunicare e di percepire l’altro.

Sono tre, in particolare, i fattori che si intrecciano in questa riflessione: l’utilizzo diffuso di assistenti virtuali, la progressiva affermazione di un linguaggio diretto e imperativo verso la tecnologia, e il rischio che queste abitudini travalichino il confine tra uomo e macchina, incidendo sulle dinamiche sociali e sulle forme di cortesia tra individui.

È quanto sottolinea David Gewirtz, che, con una prospettiva attenta e quasi provocatoria, invita a domandarsi: stiamo forse educando le nuove generazioni – e noi stessi – a una comunicazione meno empatica e più autoritaria, semplicemente perché ci abituiamo a “comandare” le macchine?

Non si tratta solo di “galateo digitale”

A dare sostanza a questo allarme è uno studio della University of Cambridge’s School of Clinical Medicine, che ha osservato come un’esposizione precoce agli assistenti vocali favorisca nei bambini l’adozione di uno stile comunicativo centrato su ordini secchi e privi di formule di rispetto.

Il fenomeno della normalizzazione del comando non si limita, dunque, al rapporto con la tecnologia: secondo le teorie sulla disinibizione online di John Suler e il concetto della finestra di Overton , la soglia di ciò che consideriamo accettabile nella società si sposta gradualmente, rendendo consueti comportamenti che un tempo sarebbero stati ritenuti scortesi o inappropriati.

Le implicazioni sono tutt’altro che trascurabili. La nostra interazione con l’Intelligenza Artificiale non è mai neutra: ogni volta che chiediamo a un assistente digitale di eseguire un compito senza preoccuparci delle formule di cortesia, contribuiamo a consolidare una cultura del comando che rischia di riflettersi anche nelle nostre interazioni quotidiane. Se la normalizzazione del comando diventa prassi, il rischio è che la società perda progressivamente la capacità di riconoscere e valorizzare le sfumature della comunicazione umana, come l’empatia, l’ascolto e il rispetto reciproco.

Le potenziali soluzioni

La ricerca di soluzioni a questo problema si articola su più livelli. Da un lato, educatori e genitori chiedono di inserire nei percorsi formativi momenti di riflessione sull’uso consapevole della tecnologia, sottolineando l’importanza di mantenere vive le regole della cortesia anche quando si interagisce con le macchine.

Dall’altro, i designer di interfacce sono chiamati a progettare sistemi che non solo facilitino l’utilizzo degli assistenti virtuali, ma che incentivino attivamente l’adozione di formule rispettose e dialogiche. Nel frattempo, il mondo della ricerca propone l’introduzione di messaggi che incoraggino comportamenti rispettosi, per contrastare la tendenza a ridurre tutto a semplici comandi.

Gewirtz, nella sua analisi, suggerisce la necessità di una “disciplina comunicativa” che ci renda consapevoli dell’impatto che il nostro modo di parlare alle macchine può avere sulla società nel suo complesso. Questa consapevolezza dovrebbe guidare sia l’educazione dei più giovani sia il nostro comportamento quotidiano, affinché l’AI non diventi un pretesto per abbassare il livello della nostra umanità.

Ti consigliamo anche

Link copiato negli appunti