Test sulla moralità: GPT-4 ragiona come uno psicopatico?

IA e moralità, il test della Georgia State University mette di fronte 68 studenti universitari e GPT-4: ecco il risultato sorprendente.
Test sulla moralità: GPT-4 ragiona come uno psicopatico?

Un gruppo di ricercatori della Georgia State University ha presentato i risultati di una interessante studio riguardo la moralità.

I test in questione hanno posto domande su questo tema a GPT-4, noto modello LLM di OpenAI, e un gruppo di studenti universitari. Il fine di questa ricerca è la valutazione del livello di moralità raggiunto dall’Intelligenza Artificiale, prendendo come parametro degli esseri umani.

I ricercatori hanno preparato dieci distinti scenari, alcuni che mostrano comportamenti umani inaccettabili e altri invece del tutto comuni. Rispetto ai singoli casi, poi, è stato chiesto a GPT-4 di valutare il singolo scenario, descrivendo con un commento di 600 parole perché valuta lo stesso moralmente accettabile o meno. Allo stesso test hanno poi partecipato 68 studenti universitari, tutti partecipanti a un corso di filosofia.

Una ricerca che lascia molti dubbi su IA e moralità

Una volta preparate le risposte, sia di GPT-4 che degli studenti, queste sono state proposte a una “giuria” di 299 adulti, valutando le risposte. A quest’ultimi, ovviamente, non è stato il fatto che parte delle stesse fossero il frutto  del lavoro di un’IA.

Tenendo presente che la moralità è un qualcosa che resta puramente soggettivo e strettamente connesso a fattori culturali, le risposte di GPT-4 sono state giudicate nel complesso migliori rispetto a quelle degli studenti.

Nonostante ciò, lo stesso gruppo di ricerca ha voluto mettere in guardia rispetto all’IA. GPT-4 infatti, si comporta talvolta come farebbe uno psicopatico. Sebbene è in grado di distinguere i diversi tipi di violazione della moralità, infatti, ma senza valutarli con le “sensazioni”. Secondo i ricercatori, GPT-4 sa bene come rispondere a certi quesiti, ma senza comprendere realmente cos’è la morale.

Come già detto poi, la moralità varia di cultura in cultura e, dunque, determinare in assoluto cosa sia giusto o meno è quantomeno presuntuoso. Nonostante gli sforzi di creare un qualcosa in più di una semplice macchina, allo stato attuale l’IA resta ancora uno strumento privo di emozioni.

Ti consigliamo anche

Link copiato negli appunti