L'AI contro il linguaggio tossico nelle chat di gioco: la sfida di Activision con Call of Duty

Activision è il primo colosso del gaming ad affidarsi all'AI: sarà in grado di identificare in tempo reale il linguaggio tossico.
L'AI contro il linguaggio tossico nelle chat di gioco: la sfida di Activision con Call of Duty

Pensare che l’intelligenza artificiale possa essere usata solo per generare contenuti (testi, immagini e così via) è un grande errore. Può infatti essere impiegata anche in altri ambiti, compreso quello dell’intrattenimento videoludico. A tal proposito, Activision ha annunciato che a breve introdurrà la moderazione delle chat vocali in tempo reale basata proprio sull’AI. Il debutto è fissato per il 10 novembre 2023, con Call of Duty: Modern Warfare III.

Activision contro il linguaggio tossico nei suoi videogiochi: il nuovo strumento di moderazione basato sull’AI

Il colosso dell’industria del gaming sta collaborando con Modulate per implementare la feature AI, e più precisamente la tecnologia chiamata ToxMod. Questa sarà in grado di identificare e opporsi a tutte le violazioni del codice di condotta (incitamento all’odio, bullismo, molestie, discriminazione e così via).

Il “linguaggio tossico” non è un problema che riguarda solo Activision e i suoi giochi, ma è stata proprio l’azienda statunitense a confermare che questo fenomeno ha trovato terreno fertile nel suo franchise di enorme successo. La serie di Call of Duty conta infatti milioni di giocatori, che possono cimentarsi con lo sparatutto anche gratuitamente con il battle royale Warzone.

ToxMod andrà a fornire sostegno al già solido sistema di “anti-tossicità” di Activision. A detta della società di Santa Monica, questo ha già limitato la chat vocale o di testo per oltre un milione di account che violano il suo codice di condotta. Altro dato interessante è che il 20% di coloro che hanno ricevuto un primo richiamo poi non ha commesso altre violazioni, a conferma dell’utilità della misura per moderare il comportamento dei videogiocatori.

La moderazione in tempo reale tramite AI rappresenta un notevole progresso per rendere i giochi ancora più divertenti, tuttavia i sistemi di rilevamento basati sull’intelligenza artificiale possono commettere errori, in un senso o nell’altro. Activision ne è consapevole e per questo ha deciso di inserire anche un essere umano all’interno del circuito:

Il rilevamento avviene in tempo reale, con il sistema che classifica e contrassegna il linguaggio tossico in base al codice di condotta di Call of Duty. Le violazioni potrebbero però richiedere ulteriori revisioni delle registrazioni prima dell’applicazione del richiamo. Pertanto, le azioni intraprese non saranno istantanee. Poi, in futuro, i nostri processi e i tempi di risposta evolveranno.

Il nuovo sistema di moderazione è in fase di test già da alcuni giorni in Nord America e solo in giochi già disponibili sul mercato, come Call of Duty: Modern Warfare e Call of Duty: Warzone. Il lancio della tecnologia AI è previsto in concomitanza con il rilascio di Modern Warfare III, a partire però solo dalla lingue inglese. Il supporto ad altre lingue verrà aggiunto in seguito.

Ti consigliamo anche

Link copiato negli appunti