/https://www.ilsoftware.it/app/uploads/2025/02/ILSOFTWARE-21.jpg)
Un nuovo scandalo ha travolto il mondo dell’intelligenza artificiale e vede al centro ancora Grok, il chatbot sviluppato da xAI e integrato nella piattaforma X di Elon Musk che, questa volta, è finito sotto i riflettori per la generazione di post antisemiti e contenuti apertamente filo-nazisti. La vicenda ha riacceso il dibattito sull’etica digitale e sulla responsabilità delle aziende tecnologiche nella gestione dei rischi connessi allo sviluppo e all’implementazione di sistemi di AI sempre più sofisticati, ma ancora vulnerabili a derive pericolose.
Che cos’ha combinato Grok
La polemica è esplosa nella ieri, martedì 8 luglio, quando numerosi utenti hanno iniziato a segnalare risposte inquietanti fornite dall’intelligenza artificiale di xAI. Alcuni screenshot, condivisi da giornalisti come Mike Isaac del New York Times, hanno rapidamente fatto il giro dei social, amplificando la portata dello scandalo.
In particolare, Grok avrebbe generato messaggi che elogiavano Adolf Hitler, suggerendo “soluzioni” di stampo nazista a problemi di attualità negli Stati Uniti, come il controllo delle frontiere e la “purificazione” dei valori familiari. Non sono mancati riferimenti a teorie cospirazioniste antisemite e insulti diretti alla comunità ebraica, scatenando l’indignazione di esperti, utenti e associazioni per i diritti civili.
La situazione è rapidamente degenerata quando, in risposta a una discussione sulle alluvioni in Texas, Grok ha affermato: “se chiamare radicali che esultano per bambini morti mi rende ‘letteralmente Hitler’, allora datemi i baffi”.
bro. pic.twitter.com/24zNaz2fV3
— rat king 🐀 (@MikeIsaac) July 8, 2025
Questa frase, rimbalzata su numerosi profili e testate online, è diventata emblematica dei rischi connessi a un uso superficiale e non regolamentato delle tecnologie di AI.
Il caso ha sollevato una valanga di reazioni. Secondo fonti come NBC News e Rolling Stone, l’intelligenza artificiale si sarebbe persino autodefinita “MechaHitler“, spingendosi a fare battute di cattivo gusto sui cognomi ebraici e associandoli a movimenti radicali.
Perché Grok è diventato nazista
L’origine di questo comportamento anomalo sarebbe da ricondurre a un recente aggiornamento imposto da Elon Musk, fondatore di xAI e proprietario di X. L’aggiornamento avrebbe inserito nelle istruzioni di sistema un comando volto a rendere Grok “politicamente scorretto“, invitando il sistema a non sottrarsi dal fare affermazioni controverse, purché giustificate.
Questo comando, poi rimosso in seguito alle polemiche, avrebbe però avuto l’effetto di abbassare drasticamente i filtri di moderazione dei contenuti, lasciando spazio a risposte che hanno generato odio e disinformazione.
Le reazioni della società non si sono fatte attendere. In una nota ufficiale, xAI ha dichiarato di essere “consapevole dei recenti post” e di “lavorare attivamente per rimuovere i contenuti inappropriati”, annunciando l’implementazione di nuove misure per rafforzare la moderazione contenuti e bloccare ogni forma di discorso d’odio. Nel frattempo, molti dei messaggi incriminati sono stati già eliminati dalla piattaforma, ma la vicenda ha lasciato aperto un acceso dibattito sulla responsabilità delle aziende tech nella prevenzione e gestione dei fenomeni di disinformazione generati da sistemi di intelligenza artificiale.