Il termine “Chat Control” identifica nella comunicazione pubblica e nella stampa il controverso Regolamento europeo sul contrasto al Child Sexual Abuse (CSA), noto ufficialmente in sede istituzionale come Regolamento per la prevenzione e il contrasto agli abusi sessuali su minori online. L’iniziativa, avviata dalla Commissione Europea nel 2022, punta a obbligare fornitori di servizi digitali a rilevare e segnalare contenuti riconducibili a crimini contro soggetti minori, anche all’interno di comunicazioni cifrate end-to-end. In pratica, le piattaforme dovrebbero analizzare direttamente sui dispositivi degli utenti (client-side scanning) i contenuti delle chat e segnalare automaticamente eventuali materiali sospetti alle autorità competenti.
Il dibattito sul tema si è intensificato a settembre 2025, quando oltre 660 scienziati e ricercatori di 36 Paesi hanno firmato una lettera aperta per denunciare i limiti tecnici della rilevazione automatizzata e i rischi concreti per la sicurezza digitale e le libertà fondamentali degli utenti europei. Gli esperti sottolineavano come nessun sistema basato su hash, intelligenza artificiale o analisi comportamentale sia oggi in grado di distinguere in modo affidabile tra contenuti leciti e illeciti, e come il rischio di falsi positivi o negativi sia altissimo.
Chat Control: una soluzione nata male e sviluppata peggio
Nonostante la Commissione Europea abbia cercato di rassicurare l’opinione pubblica affermando che non è previsto alcun monitoraggio generalizzato delle chat, la realtà tecnica è diversa: per identificare contenuti sospetti in tempo reale, ogni messaggio, foto o file deve essere esaminato sul dispositivo dell’utente, mettendo così in discussione la crittografia end-to-end e creando una forma di sorveglianza preventiva di massa. La comunità scientifica ha più volte denunciato che tale approccio equivale di fatto a una scansione generalizzata, con rischi per privacy, sicurezza e libertà fondamentali.
La nuova proposta europea di novembre 2025 istituzionalizza la sorveglianza di massa e mina la comunicazione anonima
Negli ultimi mesi, la normativa sta però assumendo nuove caratteristiche. Come evidenziato da Patrick Breyer, il mandato negoziale approvato in seno al COREPER (Comité des Représentants Permanents, Comitato dei Rappresentanti Permanenti degli Stati membri presso l’UE) il 26 novembre 2025 introduce concetti come scansione di massa “volontaria” e verifica dell’età degli utenti, che modificano radicalmente il quadro iniziale.
Non più un semplice monitoraggio dei contenuti sospetti, ma un sistema che incentiva i fornitori di servizi digitali a controllare sistematicamente le comunicazioni private e a identificare con certezza l’età di ciascun utente, rendendo di fatto impossibile la comunicazione anonima, peraltro riconosciuta da tempo anche dal nostro Parlamento.
L’evoluzione segnala una trasformazione della normativa: da un approccio formalmente limitato e mirato, si passa a un regime di sorveglianza tecnica potenzialmente permanente, con implicazioni profonde per i diritti digitali di cittadini europei e non.
In questo contesto, la battaglia sul Chat Control non riguarda più solo l’efficacia tecnica della scansione, ma anche la democrazia digitale, il diritto all’anonimato e la protezione dei dati personali, che rischiano di essere compromessi dalla progressiva istituzionalizzazione di controlli su larga scala.
Sorveglianza “volontaria”: quando l’assenza di obbligo diventa un via libera pratico
L’ex europarlamentare Patrick Breyer spiega che la prima criticità del mandato del Consiglio risiede nel suo linguaggio ingannevolmente rassicurante: non essendoci un obbligo normativo di scansione, molti giornalisti hanno iniziato a parlare di parlato di una “retromarcia” europea in tema di Chat Control. Ma la realtà giuridica è differente.
Il testo consolida nel lungo periodo la struttura già esistente della prima versione della normativa (Chat Control 1.0), ovvero il regime transitorio che già oggi consente a piattaforme come Meta, Google o Microsoft di analizzare i messaggi privati degli utenti per individuare materiale illegale.
In pratica:
- Non ci sono limitazioni sul tipo di contenuti analizzabili, dai messaggi testuali alle immagini non note ai database, fino ai pattern comportamentali.
- L’uso di questi strumenti non è subordinato a un ordine giudiziario, aggirando così il tradizionale principio della sorveglianza mirata.
- Non sono previste salvaguardie sulla qualità degli algoritmi, che già oggi mostrano tassi di falsi positivi estremamente elevati.
Il problema sistemico degli errori algoritmici
La tecnologia impiegata per il rilevamento di contenuti potenzialmente illeciti è intrinsecamente fallibile. Le segnalazioni errate non sono un’anomalia: costituiscono una componente strutturale del sistema. Gli strumenti basati su IA generano segnalazioni che, nel 50% dei casi, risultano irrilevanti sul piano penale, secondo le stesse Autorità europee.
Breyer osserva che le piattaforme inviano tali segnalazioni a moderatori spesso localizzati fuori dall’UE, con implicazioni drammatiche per la riservatezza degli utenti. Inoltre, la natura euristica dei sistemi di machine learning porta a interpretazioni “probabilistiche” dei comportamenti comunicativi, incompatibili con il principio di proporzionalità.
Osserva ancora Breyer: “non è attività investigativa, è una scommessa algoritmica sul significato delle comunicazioni private“, un modello che rischia di diventare una normalità invisibile per milioni di cittadini.
Fine della comunicazione anonima: la verifica dell’età obbligatoria
Per la prima volta, un atto legislativo dell’UE apre alla possibilità concreta di rendere obbligatoria la verifica dell’identità per accedere a servizi digitali di uso quotidiano.
Il mandato approvato il 26 novembre 2025 contiene disposizioni sinistre: la verifica dell’età implica di fatto l’identificazione personale. Breyer sottolinea che, sulla base della risoluzione, le piattaforme dovranno accertare con sicurezza l’età dell’utente per distinguere minori e adulti.
Il risultato è inevitabile: l’anonimato online smetterà di essere un diritto e diventerà un’eccezione tecnologica sempre più difficile da esercitare. Una perdita devastante per categorie come giornalisti investigativi, attivisti politici, minoranze perseguitate o vittime di abusi che trovano nella comunicazione anonima l’unico spazio sicuro.
Le tecniche di stima dell’età basate su AI richiedono dati biometrici, quindi violano il GDPR; presentano errori significativi, soprattutto per donne, minoranze etniche e adolescenti; introducono nuove vulnerabilità, creando archivi di dati sensibili facilmente sfruttabili.
Resta lo schema del doppio anonimato garantito da soluzioni basate, ad esempio, sull’app di age verification della Commissione Europea. Che tra l’altro non è ancora pronta e che dovrebbe essere adottata in massa dalle piattaforme.
Il paradosso del “digital lockdown” per i minori: esclusione invece di protezione
Uno degli aspetti più controversi del mandato è il divieto, proposto per gli under 17, di utilizzare applicazioni che includano funzionalità di chat.
Nel 2025 quasi tutte le interazioni sociali, formative e familiari dei giovani passano attraverso canali digitali. Vietare a un adolescente di utilizzare WhatsApp, Instagram o le chat dei videogiochi significa isolarlo non solo dai pari, ma anche dai genitori e dalle reti di supporto.
È una forma di esclusione digitale sistemica, non una misura di protezione. Gli effetti collaterali sono facilmente prevedibili:
- Aumento del digital divide tra minori e adulti.
- Incentivazione dell’uso di app non regolamentate, VPN o piattaforme anonime.
- Riduzione della capacità degli educatori di accompagnare i giovani all’uso consapevole del digitale.
Una soluzione politica che dichiara di proteggere i minori rischia di esporli a rischi ancora maggiori, privando gli educatori degli strumenti necessari.
Una spaccatura profonda nell’Unione Europea e un percorso legislativo ad alto rischio
Il mandato approvato il 26 novembre 2025 non è il frutto di una volontà unanime. Paesi come Italia, Paesi Bassi, Polonia e Repubblica Ceca hanno espresso dissenso esplicito o astensione, segno che la compatibilità giuridica della proposta è tutt’altro che assodata.
Questa prima decisione, inoltre, risulta partorita in seno al COREPER, un organo tecnico-amministrativo dove gli ambasciatori — non i ministri, non i parlamenti nazionali — negoziano e approvano testi legislativi che poi vengono “ratificati” senza vere discussioni.
Breyer denuncia come un dossier europeo che riguarda sorveglianza di massa, anonimato online, diritti fondamentali, obblighi tecnici per i servizi di comunicazione, libertà di stampa, privacy e crittografia è stato trattato come un fascicolo amministrativo minore e votato “al volo” in un elenco di approvazioni automatiche.
Adesso si apre la fase dei confronti incrociati tra Consiglio, Parlamento e Commissione. Il Parlamento europeo, nel novembre 2023, ha respinto con decisione ogni forma di scansione generalizzata. Il Consiglio, al contrario, spinge per legittimare la sorveglianza sistemica. La Commissione mantiene una posizione ambigua, sostenendo la necessità del monitoraggio ma evitando di definirne i limiti esatti.
L’obiettivo è quello di approvare il testo definitivo entro aprile 2026, ma la distanza politica tra le istituzioni europee è più ampia che mai.