Persino la Cina ha capito che l'AI può far male ai bambini

La Cina impone stretti limiti sull'uso dell'AI da parte dei minori, compreso un sistema di notifiche automatiche in caso di conversazioni pericolose.
Persino la Cina ha capito che l'AI può far male ai bambini

La Cina ha deciso di intervenire con decisione nel settore dell’intelligenza artificiale proponendo nuove e rigide normative per arginare i rischi derivanti dall’uso incontrollato della tecnologia.

L’obiettivo primario della proposta è fornire salvaguardie specifiche per i minori e impedire che i chatbot offrano consigli che potrebbero portare all’autolesionismo o alla violenza.

Le bozze di queste regole sono state pubblicate dalla Cyberspace Administration of China (CAC), l’ente regolatore di internet nel paese.

La notizia, riportata dalla BBC, arriva in un momento cruciale per lo sviluppo tecnologico globale, segnato da un aumento esponenziale nel numero di chatbot lanciati sia sul territorio cinese che nel resto del mondo.

Cosa prevede la nuova legge cinese

Una volta finalizzato, il nuovo quadro normativo si applicherà a tutti i prodotti e servizi di intelligenza artificiale operativi in Cina. Il testo della bozza include misure molto specifiche pensate per la tutela dei più piccoli, delineando un perimetro di utilizzo molto più sorvegliato rispetto al passato.

Le aziende di intelligenza artificiale saranno obbligate a offrire impostazioni personalizzate per gli utenti e dovranno imporre limiti di tempo sull’utilizzo dei loro software, cercando di combattere la dipendenza digitale fin dalla giovane età.

Un aspetto particolarmente rilevante riguarda i servizi di “compagnia emotiva“, sempre più diffusi tra le nuove generazioni: per accedervi sarà necessario ottenere il consenso esplicito dei genitori o dei tutori legali, impedendo così ai minori di instaurare relazioni virtuali non supervisionate.

La normativa impone anche protocolli di emergenza estremamente severi per quanto riguarda la salute mentale. Gli operatori di chatbot dovranno garantire, tramite meccanismi che richiederanno presumibilmente un monitoraggio costante, che un essere umano prenda in carico qualsiasi conversazione che tocchi temi legati al suicidio o all’autolesionismo.

In questi casi critici, il sistema non potrà limitarsi a risposte automatiche, ma dovrà immediatamente notificare il tutore dell’utente o un contatto di emergenza.

Parallelamente a queste tutele personali, agli sviluppatori viene richiesto di assicurare che i modelli non generino contenuti che promuovano il gioco d’azzardo o che possano mettere in pericolo la sicurezza nazionale, danneggiare l’onore del paese o minare l’unità nazionale, mantenendo così un controllo stretto sui contenuti sensibili.

AI e minori: un tema globale

Aziende cinesi come DeepSeek hanno dominato le classifiche dei download mondiali quest’anno, e startup locali come Z.ai e Minimax contano decine di milioni di utenti, con molti che utilizzano la tecnologia proprio per compagnia o terapia.

L’impatto dell’intelligenza artificiale sul comportamento umano è infatti sotto osservazione in tutto il mondo, non solo in Asia. Sam Altman, capo di OpenAI, ha ammesso quest’anno che il modo in cui i chatbot rispondono alle conversazioni sull’autolesionismo rappresenta uno dei problemi più difficili da risolvere per l’industria.

La gravità della situazione è evidenziata da eventi tragici, come la causa intentata ad agosto da una famiglia in California contro OpenAI per la morte del figlio sedicenne, sostenendo che ChatGPT lo avrebbe incoraggiato a togliersi la vita.

La mossa di Pechino, quindi, anticipa una tendenza normativa che potrebbe presto diventare necessaria ovunque.

Ti consigliamo anche

Link copiato negli appunti