Il panorama delle grandi community online è in fermento dopo l’annuncio delle nuove regole introdotte da Reddit, una delle piattaforme di discussione più popolari al mondo.
L’azienda ha infatti deciso di intervenire in modo deciso sulla gestione delle proprie community, imponendo limiti moderazione che riducono l’autonomia degli storici moderatori volontari. Un cambiamento definito “strutturale” dal portavoce Tim Rathschmidt, che sottolinea come la scelta non sia un giudizio su singoli individui, ma un tentativo di uniformare la policy di Reddit per il presente e il futuro.
Il cuore della questione riguarda la ridefinizione delle responsabilità nella gestione contenuti. Fino ad oggi, i moderatori godevano di un’ampia libertà d’azione nel monitorare e intervenire sui contenuti problematici. Con le nuove regole, però, Reddit introduce un sistema più centralizzato e standardizzato: i contenuti rimossi dai moderatori scompariranno automaticamente anche dai profili degli utenti, senza attendere l’intervento della piattaforma a seguito di una segnalazione. Questa modifica, che a prima vista potrebbe sembrare una semplificazione, solleva invece timori tra chi si occupa quotidianamente della sicurezza piattaforma.
Molti moderatori hanno infatti espresso preoccupazione per la perdita di strumenti utili al monitoraggio dei comportamenti ricorrenti e alla prevenzione di fenomeni come hate speech e disinformazione. Se da un lato Reddit assicura che continuerà a esaminare tutte le segnalazioni attraverso sistemi automatizzati e revisione umana, dall’altro la piattaforma lascia intendere che non risponderà più direttamente alle segnalazioni relative a comportamenti degli utenti o a contenuti già rimossi. Questo cambio di passo rischia, secondo molti, di minare la trasparenza del processo e la fiducia tra la piattaforma e i suoi collaboratori volontari.
La decisione di Reddit e i dubbi dei moderatori
Le reazioni della community non si sono fatte attendere. Alcuni moderatori hanno raccontato episodi preoccupanti, come la persistenza di contenuti di negazionismo Olocausto e l’uso di termini razzisti che, nonostante le ripetute segnalazioni, continuano a circolare impunemente. Altri accusano Reddit di voler “scaricare le proprie responsabilità”, facilitando così la diffusione di fenomeni dannosi come hate speech, minacce, incitamento all’odio e disinformazione. La percezione diffusa è che, con la riduzione del ruolo dei moderatori, la piattaforma rischi di diventare più vulnerabile a comportamenti tossici e campagne di manipolazione.
Reddit, dal canto suo, ribadisce che “mantenere Reddit sicuro e sano è la nostra massima priorità” e garantisce che la lotta contro chi viola le regole rimarrà centrale nelle sue strategie. Tuttavia, le rassicurazioni della piattaforma non bastano a dissipare i dubbi dei moderatori, che temono un’erosione progressiva della loro capacità di intervento. Il rischio percepito è che, senza una collaborazione stretta e strumenti adeguati, diventi più difficile individuare e fermare tempestivamente fenomeni di disinformazione o campagne coordinate di hate speech.