Google Gemma sotto accusa: denuncia di diffamazione da senatrice USA

Marsha Blackburn accusa Gemma di aver generato false accuse di violenza: cresce il dibattito su trasparenza e responsabilità dell'AI.
Google Gemma sotto accusa: denuncia di diffamazione da senatrice USA

Nel mondo dell’Intelligenza Artificiale, ogni passo avanti è accompagnato da nuove responsabilità e, talvolta, da inevitabili controversie.

È quanto sta accadendo in queste settimane, con una nuova ondata di polemiche che coinvolge Google e il suo modello linguistico avanzato Gemma, accusato di aver diffuso gravi falsità a danno di figure pubbliche. L’episodio che ha scatenato il dibattito riguarda la senatrice Marsha Blackburn, che si è ritrovata protagonista, suo malgrado, di una vicenda che solleva interrogativi fondamentali sul futuro della tecnologia e sulla tutela della reputazione individuale nell’era digitale.

La senatrice ha infatti dichiarato pubblicamente la propria indignazione dopo aver scoperto che l’AI di Google aveva generato e diffuso false accuse di stupro nei suoi confronti. “Viviamo in un’era in cui le macchine possono diffamare le persone senza alcuna conseguenza legale”, ha sottolineato la parlamentare, evidenziando come le nuove tecnologie stiano ridefinendo il concetto stesso di responsabilità. Il modello, in risposta a una domanda specifica, avrebbe creato un dettagliato racconto di abusi sessuali, attribuendo a Blackburn episodi mai avvenuti e citando fonti giornalistiche e testimoni inesistenti.

Il caso Blackburn non è un evento isolato

Il caso, già di per sé allarmante, si inserisce in un contesto più ampio. Non si tratta infatti di un episodio isolato: sempre Gemma ha prodotto dichiarazioni diffamatorie anche su Robby Starbuck, attivista noto per le sue posizioni conservatrici.

In quel frangente, il modello aveva descritto Starbuck come “violentatore di minori”, danneggiando profondamente la sua immagine pubblica e costringendolo ad avviare un’azione legale contro Google. L’impatto reputazionale di queste accuse, seppur totalmente infondate, è stato immediato e devastante.

Durante una recente audizione al Senato degli Stati Uniti, il vicepresidente di Google, Markham Erickson, ha riconosciuto la gravità delle cosiddette allucinazioni, ovvero la tendenza dei modelli AI a generare informazioni prive di fondamento. Pur ammettendo che si tratta di un problema noto, Erickson non ha fornito dettagli concreti sulle strategie che l’azienda intende adottare per prevenirne il ripetersi. Come misura precauzionale, Google ha temporaneamente rimosso Gemma dalla sua piattaforma AI Studio, lasciando tuttavia la possibilità agli sviluppatori di accedervi tramite API.

Gli esperti di settore sottolineano come il fenomeno delle allucinazioni rappresenti una minaccia crescente, soprattutto quando i sistemi vengono utilizzati per fornire informazioni su persone reali. Il confine tra errore tecnico e diffamazione diventa così estremamente sottile, aprendo scenari inediti dal punto di vista sia tecnologico sia legale. Il rischio è che l’adozione su larga scala di questi strumenti, in assenza di adeguati filtri e controlli, possa alimentare episodi di AI bias e mettere a repentaglio la reputazione di chiunque.

Le conseguenze delle allucinazioni di Gemma

Dal punto di vista normativo, la vicenda ha già avuto ripercussioni significative. La senatrice Blackburn ha inviato una lettera formale al CEO di Google, Sundar Pichai, chiedendo spiegazioni dettagliate sui meccanismi che hanno portato alla generazione delle accuse e sulle misure che verranno adottate per evitare che simili episodi si ripetano in futuro. La richiesta di maggiore trasparenza sui dati di addestramento e sui sistemi di sicurezza diventa così centrale nel dibattito, ponendo le aziende tecnologiche di fronte a una sfida cruciale.

Per Google, la posta in gioco è duplice: da un lato c’è la necessità di risolvere i problemi tecnici legati alle allucinazioni e di migliorare la qualità delle risposte generate dai propri modelli; dall’altro, c’è l’urgenza di preservare la propria credibilità e di garantire l’imparzialità dei sistemi, evitando derive che potrebbero minare la fiducia degli utenti.

Ti consigliamo anche

Link copiato negli appunti