Mentre l’opinione pubblica cercava di comprendere la dinamica della tragedia, in cui sono state uccise almeno undici persone durante un raduno per l’Hanukkah, il sistema sviluppato da xAI ha iniziato a generare risposte completamente errate o irrilevanti.
Invece di fornire un servizio utile, l’IA ha creato confusione su un evento drammatico in cui un passante di 43 anni, Ahmed al Ahmed, è intervenuto eroicamente per disarmare uno degli aggressori.
Cosa ha detto Grok su Bondi Beach
Le risposte fornite dall’algoritmo agli utenti sono state tanto surreali quanto offensive. Quando è stato chiesto conto del video virale che mostrava al Ahmed affrontare l’aggressore, Grok ha affermato che si trattava di un vecchio filmato di un uomo che si arrampicava su una palma in un parcheggio per potarla, suggerendo addirittura che l’evento potesse essere una messinscena dall’autenticità incerta.
L’incapacità di distinguere la realtà ha portato il chatbot a commettere un altro errore critico identificando una foto di al Ahmed ferito come quella di un ostaggio israeliano catturato da Hamas il 7 ottobre, inserendo nel discorso commenti fuori contesto sulle operazioni militari a Gaza.
La confusione è proseguita con l’identificazione di un video dello scontro a fuoco tra polizia e assalitori come filmato del Ciclone Tropicale Alfred, che ha colpito l’Australia mesi prima. Il sistema ha inoltre mescolato i fatti di Bondi con quelli di una sparatoria avvenuta alla Brown University poche ore prima, dimostrando una totale incapacità di contestualizzare le notizie.
L’AI continua a sbagliare la cronaca
Il caos informativo generato da Grok non si è limitato alla sola sparatoria australiana ma sembra riflettere un problema più ampio di “glitch” nel sistema. L’IA ha fornito riassunti della strage di Bondi in risposta a domande sull’azienda Oracle e ha commesso errori pericolosi in ambito medico, fornendo informazioni sull’acetaminofene a chi chiedeva della pillola abortiva mifepristone.
Anche la politica e lo sport sono stati colpiti da allucinazioni digitali, con risposte incoerenti su leggi britanniche e l’identificazione errata di calciatori famosi. Questi episodi seguono precedenti controversi in cui il chatbot ha promosso teorie cospirazioniste sul “genocidio bianco” in Sud Africa o ha fornito risposte inquietanti su ipotetici scenari di sterminio della popolazione ebraica.
Di fronte alle richieste di spiegazioni, l’azienda xAI ha risposto solamente con un messaggio automatico che accusa i media tradizionali di mentire, senza affrontare i malfunzionamenti.