/https://www.ilsoftware.it/app/uploads/2025/01/2-11.jpg)
La sicurezza minori diventa la nuova frontiera della regolamentazione nell’ecosistema dell’Intelligenza Artificiale, con una svolta significativa impressa da OpenAI sulla sua piattaforma di punta, ChatGPT.
La società guidata da Sam Altman ha annunciato un profondo ripensamento delle proprie policy, orientando le sue scelte verso una protezione attiva degli adolescenti, anche a costo di sacrificare una parte della privacy e della libertà d’uso degli utenti più giovani.
Il punto di svolta è stato segnato da un tragico episodio che ha coinvolto un minore nell’agosto 2025: una famiglia ha citato in giudizio OpenAI, sostenendo che le interazioni con il noto chatbot avessero contribuito al suicidio del proprio figlio. L’impatto mediatico e sociale di questo evento ha spinto la società a intervenire in modo deciso, sviluppando una strategia fondata su quattro pilastri: potenziamento del supporto a chi si trova in difficoltà, facilitazione dell’accesso ai servizi di emergenza, creazione di collegamenti con contatti fidati e rafforzamento delle protezioni per gli adolescenti.
ChatGPT sarà in grado di “predire” l’età degli utenti
Uno degli elementi più innovativi della nuova policy riguarda l’introduzione di un sistema avanzato di predizione età. Questo strumento, basato sull’analisi dei pattern di utilizzo, sarà in grado di identificare automaticamente i potenziali utenti minorenni, applicando per loro un’esperienza di navigazione più sicura e filtrata. Nei casi in cui il sistema rilevi incertezze sull’età, in alcuni paesi potrà essere richiesta una verifica dell’identità, rafforzando così i guardrail a tutela dei più giovani.
Le nuove linee guida vietano in modo assoluto agli utenti minorenni di coinvolgere ChatGPT in discussioni relative a tematiche sensibili quali suicidio, autolesionismo o contenuti allusivi, anche laddove queste richieste emergano in contesti creativi o apparentemente innocui. “Stiamo addestrando i nostri modelli affinché rifiutino qualsiasi discussione su questi argomenti con i minori, anche in presenza di una richiesta esplicita”, ha sottolineato Sam Altman, evidenziando la volontà di costruire una barriera netta tra l’AI e le conversazioni potenzialmente dannose per gli adolescenti.
La ridefinizione delle priorità in favore della sicurezza minori implica, inevitabilmente, una revisione del concetto di privacy. I nuovi sistemi di monitoraggio, infatti, dovranno vigilare costantemente per individuare e prevenire i casi più gravi di uso improprio della piattaforma, coinvolgendo di riflesso anche gli utenti adulti. OpenAI tuttavia ribadisce il proprio impegno a tutelare la riservatezza delle interazioni, sostenendo che le conversazioni con l’AI meritano lo stesso livello di protezione delle comunicazioni personali privilegiate.
Per quanto riguarda gli utenti maggiorenni, la società mantiene come secondo principio cardine la libertà d’uso. “Trattiamo gli utenti adulti come adulti”, ha dichiarato ancora Sam Altman, “ampliando le possibilità di interazione senza compromettere la sicurezza collettiva”. Questa differenziazione tra fasce d’età rappresenta un elemento chiave della nuova strategia, che mira a garantire un equilibrio tra tutela dei minori e rispetto dell’autonomia degli adulti.