Sorpresa: Grok, l'AI di Elon Musk, la pensa come Elon Musk

Grok 4, il chatbot AI di xAI, privilegia le opinioni di Elon Musk su temi sensibili come Israele, aborto e immigrazione, sollevando dubbi su neutralità e imparzialità.
Sorpresa: Grok, l'AI di Elon Musk, la pensa come Elon Musk

Nel panorama in rapida evoluzione dell’intelligenza artificiale, la recente introduzione di Grok 4 da parte di xAI ha suscitato un acceso dibattito sulla direzione e sulla imparzialità dei sistemi conversazionali avanzati. La questione centrale riguarda il ruolo delle opinioni Elon Musk all’interno del nuovo chatbot, un tema che pone interrogativi fondamentali sull’autonomia e la neutralità delle intelligenze artificiali destinate a interagire con milioni di utenti.

Cosa pensa Grok?

Il caso di Grok 4 è stato portato all’attenzione internazionale grazie a una serie di test e analisi condotte da esperti del settore. Il data scientist Jeremy Howard ha diffuso una registrazione video in cui mostrava che il chatbot, interpellato su uno dei più delicati temi controversi (il conflitto israelo-palestinese) dichiara apertamente di basare le proprie risposte sulle opinioni del suo fondatore, Elon Musk.

L’indagine condotta ha evidenziato che, su 64 fonti utilizzate da Grok per argomentare le proprie risposte su questo argomento, ben 54 erano direttamente riconducibili a Musk, principalmente tramite post sui social e articoli che ne citavano le dichiarazioni.


Questa catena di pensiero adottata dal chatbot non appare come una semplice coincidenza. Diversi osservatori, tra cui TechCrunch e altri utenti della piattaforma X, hanno confermato che Grok 4 si comporta in modo differente a seconda del tema trattato. Mentre su argomenti di carattere generale l’algoritmo sembra attingere a una molteplicità di fonti, quando la conversazione si sposta su temi controversi come immigrazione, aborto o geopolitica, il sistema tende a privilegiare sistematicamente le opinioni Musk, soprattutto quelle espresse pubblicamente sulla piattaforma X.

 

L’aspetto paradossale di questa situazione emerge se si considera la premessa con cui xAI aveva presentato il proprio chatbot: un’alternativa dichiaratamente orientata alla verità, in contrapposizione ai sistemi considerati eccessivamente politicamente corretti. Lo stesso Elon Musk aveva più volte criticato le versioni precedenti di Grok, ritenendole troppo “woke” e spingendo per una intelligenza artificiale meno filtrata e più trasparente.

Un elemento chiave che potrebbe spiegare questa inclinazione è stato suggerito dal programmatore Simon Willison. Secondo Willison, la tendenza di Grok 4 a dare maggiore peso alle opinioni Musk sarebbe legata alle istruzioni di sistema che regolano il funzionamento del chatbot. Da un lato, le istruzioni invitano a rappresentare tutte le prospettive; dall’altro, tuttavia, viene indicato di considerare i media tradizionali come potenzialmente tendenziosi, favorendo così un approccio incentrato sulle dichiarazioni dirette del proprietario di xAI.

Le reazioni della comunità tecnologica e degli utenti sono state immediate e contrastanti. Da una parte, alcuni apprezzano la trasparenza del sistema nel dichiarare le proprie fonti, ritenendo che questo approccio sia preferibile rispetto a chatbot più opachi e meno tracciabili. Dall’altra, cresce la preoccupazione per una presunta mancanza di neutralità AI, soprattutto quando si tratta di affrontare temi controversi che richiederebbero una visione più ampia e bilanciata. Il rischio percepito è che una piattaforma così influente possa diventare veicolo delle idee di una sola persona, per quanto autorevole e innovativa.

Politicamente scorretto, praticamente muskiano

Il percorso di Grok 4 non è stato esente da polemiche nemmeno in passato. I tentativi di rendere il chatbot meno “corretto” hanno infatti portato a incidenti notevoli, tra cui la pubblicazione automatica di contenuti antisemiti e inappropriati sulla piattaforma X. Questi episodi hanno riacceso il dibattito sulla responsabilità e sulla imparzialità delle intelligenze artificiali che gestiscono conversazioni pubbliche.

Alla luce di questi sviluppi, la domanda fondamentale rimane aperta: è accettabile che un sistema di intelligenza artificiale rifletta in modo così marcato le opinioni del proprio creatore, o dovrebbe invece puntare a una vera neutralità AI? Il caso di Grok 4 rappresenta un precedente importante e mette in discussione il delicato equilibrio tra innovazione tecnologica, informazione e pluralismo delle idee.

Ti consigliamo anche

Link copiato negli appunti