Secondo uno studio essere rudi con ChatGPT 4o porta output migliori

Ricerca della Pennsylvania State University mostra che prompt più diretti e meno cortesi hanno portato ChatGPT 4o a risposte più accurate.
Secondo uno studio essere rudi con ChatGPT 4o porta output migliori

Negli ultimi anni, la comunicazione tra esseri umani e Intelligenza Artificiale ha assunto un ruolo sempre più centrale, soprattutto con l’avvento di sistemi conversazionali avanzati come ChatGPT 4o.

Una recente indagine della Pennsylvania State University ha sollevato un tema che sfida le nostre intuizioni: la modalità con cui formuliamo le domande, ovvero il tono del prompt, può incidere in modo significativo sull’accuratezza delle risposte generate dal modello. Questo risultato, che sembra ribaltare le regole della cortesia nella comunicazione umana, invita a riflettere su come ottimizzare le nostre interazioni con le intelligenze artificiali.

Lo studio in questione ha posto l’accento su un aspetto tanto sottile quanto determinante: il confronto tra prompt educato e prompt diretto. I ricercatori hanno infatti testato 50 domande a risposta multipla, selezionate da differenti discipline, riformulandole secondo cinque registri tonali che andavano dall’estremamente cortese al decisamente sgarbato. In totale, sono stati generati 250 prompt, permettendo così di isolare l’effetto del tono mantenendo inalterato il contenuto informativo delle domande.

Il dato che più ha colpito gli studiosi riguarda proprio l’accuratezza delle risposte ottenute: i prompt formulati in modo “molto scortese” hanno raggiunto un tasso di correttezza dell’84,8%, mentre quelli estremamente cortesi si sono fermati all’80,8%. Questo scarto, pur non apparendo enorme, risulta statisticamente significativo e suggerisce che, almeno nel contesto di ChatGPT 4o, la chiarezza e la sintesi proprie di un linguaggio diretto possano rappresentare un vantaggio concreto rispetto alle formulazioni più elaborate e gentili.

Essere scortesi con ChatGPT paga

A ben vedere, il cuore della questione non sembra risiedere tanto nella scortesia in sé, quanto piuttosto nella maggiore chiarezza e incisività che caratterizzano i prompt diretti. Spesso, infatti, le domande cortesi si avvalgono di formule indirette e giri di parole – basti pensare a espressioni come “Potresti gentilmente…?” – che, sebbene apprezzate nella comunicazione tra persone, rischiano di introdurre ambiguità o ridondanze quando rivolte a un sistema automatizzato. Al contrario, una richiesta esplicita e sintetica elimina possibili fraintendimenti e permette all’algoritmo di concentrarsi esclusivamente sull’interpretazione semantica del quesito.

Nonostante la rilevanza dei risultati, gli stessi autori della ricerca sottolineano alcuni limiti metodologici. In primo luogo, l’analisi ha coinvolto un solo modello linguistico – ChatGPT 4o – e un set relativamente ristretto di domande. Inoltre, la differenza in termini di accuratezza rimane comunque contenuta, suggerendo che il fenomeno, pur presente, non stravolge completamente le dinamiche dell’interazione uomo-macchina. Altri fattori, come i criteri di addestramento modelli, i filtri di sicurezza applicati e le modalità di tokenizzazione del linguaggio, potrebbero aver influito sui risultati osservati.

Dal punto di vista pratico, la ricerca offre spunti preziosi sia per gli utenti sia per gli sviluppatori di AI. Per chi interagisce quotidianamente con sistemi come ChatGPT 4o, il suggerimento non è certo quello di adottare un linguaggio offensivo, bensì di preferire richieste chiare, concise e prive di ambiguità. In altre parole, la chiarezza nella formulazione del prompt si conferma una leva fondamentale per ottenere risposte precise e pertinenti. Allo stesso tempo, per chi si occupa di progettazione e addestramento dei modelli, la sfida consisterà nel rendere i sistemi sempre più sensibili anche alle forme linguistiche più sfumate e cortesi, evitando che solo le richieste più brusche risultino premiate in termini di performance.

Il lavoro della Pennsylvania State University apre inoltre nuovi interrogativi sull’estensione di questi risultati ad altri modelli linguistici e ad altri contesti applicativi. Se è vero che la tendenza osservata in ChatGPT 4o potrebbe non essere generalizzabile, è altrettanto vero che la questione della chiarezza nella comunicazione uomo-macchina resta centrale. L’ottimizzazione delle interazioni con l’AI, infatti, richiede un equilibrio delicato tra efficienza e rispetto delle convenzioni sociali che caratterizzano la comunicazione umana.

Ti consigliamo anche

Link copiato negli appunti