La protezione dei minori dai contenuti sensibili rappresenta oggi una delle sfide più urgenti per le piattaforme digitali, soprattutto alla luce delle recenti innovazioni introdotte da ChatGPT.
OpenAI ha sviluppato un nuovo sistema di age prediction che punta a tutelare gli utenti più giovani, intervenendo in modo proattivo per limitare l’accesso a materiali potenzialmente pericolosi come violenza grafica, sfide virali rischiose, contenuti sessuali espliciti e contenuti simili. L’implementazione di questo sistema avviene senza la raccolta di ulteriori dati personali, rispondendo così alle preoccupazioni crescenti in tema di privacy e sicurezza online.
La soluzione messa in campo da OpenAI si fonda su un sofisticato algoritmo di predizione dell’età che, analizzando una serie di segnali — dalla data di creazione dell’account agli orari tipici di accesso, fino ai pattern d’utilizzo nel tempo — riesce a stimare con buona affidabilità l’età dell’utente.
Questa analisi comportamentale consente di attivare automaticamente barriere protettive ogniqualvolta venga rilevato un profilo potenzialmente gestito da un minore. Le restrizioni si applicano così a rappresentazioni di autolesionismo, giochi di ruolo violenti o a sfondo sessuale, e a contenuti che potrebbero normalizzare standard di bellezza irrealistici o comportamenti alimentari pericolosi.
Lo strumento Persona per prevedere l’età degli utenti
Quando il sistema individua un possibile errore di classificazione, è previsto un iter di verifica età attraverso Persona, un partner esterno specializzato nell’autenticazione digitale.
Gli utenti coinvolti possono accedere a una sezione dedicata nelle impostazioni web, dove selezionare l’opzione di verifica e completare la procedura tramite un selfie dal vivo o il caricamento di un documento d’identità. OpenAI sottolinea che i dati raccolti da Persona non sono accessibili direttamente all’azienda e vengono eliminati entro poche ore dalla conferma, in modo da minimizzare qualsiasi rischio per la privacy degli utenti.
L’introduzione di queste misure avviene in un contesto normativo particolarmente attento alla tutela dei più giovani: l’Unione Europea, infatti, ha recentemente rafforzato i requisiti per la protezione dei minori online tramite il Digital Services Act e altre direttive sulla responsabilità delle piattaforme. L’adeguamento di ChatGPT a questi standard dimostra una crescente attenzione verso la sicurezza digitale, ma solleva anche nuovi interrogativi sull’efficacia delle soluzioni tecniche e sul bilanciamento tra tutela e rispetto dei diritti fondamentali.
Le reazioni della società civile sono diversificate. Da un lato, pedagogisti e associazioni per la difesa dell’infanzia salutano con favore l’adozione di strumenti che riducono l’esposizione a contenuti sensibili e rischiosi. Dall’altro, esperti di privacy e tecnologi evidenziano i potenziali rischi derivanti dalla profilazione algoritmica: la stima dell’età basata su comportamenti può infatti generare errori, profilazioni non intenzionali e, in alcuni casi, replicare bias presenti nei dati di addestramento. Per questo motivo, la trasparenza nei criteri decisionali e la possibilità di contestare le classificazioni restano elementi imprescindibili.
C’è possibilità di errore?
A livello operativo, restano aperte alcune questioni chiave: quale margine di errore caratterizza l’attuale sistema di age prediction? Come verranno gestite le situazioni al confine tra categorie d’età? In che modo si garantirà che la verifica età non diventi un ostacolo o una fonte di discriminazione per utenti adulti erroneamente classificati come minori?
OpenAI sostiene che la soluzione adottata migliora la sicurezza degli utenti senza comportare una raccolta di dati aggiuntivi rispetto a quelli già necessari, ma il dibattito sulle garanzie e sulla necessità di una supervisione indipendente resta aperto.