Nella rete odierna, dove la ricerca di autenticità si intreccia con la crescente diffusione di contenuti generati dall’Intelligenza Artificiale, la piattaforma X compie un passo significativo verso una maggiore chiarezza, attraverso l’introduzione dell’etichetta Made with AI.
Questo nuovo strumento si propone di offrire agli utenti una finestra trasparente sull’origine dei contenuti, permettendo ai creatori di segnalare, su base volontaria, quando un post è stato realizzato o modificato tramite AI. Ma questa mossa è davvero sinonimo di trasparenza o rischia di ridursi a un semplice simbolo senza efficacia reale?
La notizia della funzione è emersa grazie al lavoro del ricercatore Nima Owji, che ha individuato un menu nascosto denominato “Content Disclosure” all’interno dell’app mobile di X. Questo menu è pensato per agevolare la dichiarazione della natura sintetica dei contenuti, riflettendo la crescente attenzione verso la provenienza e l’autenticità di ciò che viene pubblicato online.
L’introduzione di un sistema di autodichiarazione, però, non nasce dal nulla: sempre più utenti si sentono ingannati quando scoprono che testi, immagini o video apparentemente genuini sono stati in realtà generati da algoritmi o strumenti automatici.
AI e autenticità: X cerca di affrontare il problema
A sottolineare la portata di questa iniziativa è stato Nikita Bier, responsabile del prodotto di X, che ha evidenziato come la piattaforma stia rispondendo a una domanda crescente di chiarezza in un’epoca in cui i contenuti sintetici stanno ridefinendo le regole del gioco digitale.
La società ha inoltre chiarito che, una volta che la funzione sarà ufficialmente implementata, la mancata etichettatura dei contenuti generati dall’AI potrebbe configurare una violazione delle policy della piattaforma, con possibili conseguenze per gli utenti non conformi.
Questo cambiamento è anche il frutto di pressioni normative sempre più forti a livello globale. Ad esempio, l’India ha recentemente introdotto regolamenti che impongono alle piattaforme digitali di identificare, etichettare e, in alcuni casi, rimuovere i contenuti generati dall’AI, pena la perdita di immunità legale. Queste misure spingono colossi del web come X a trovare soluzioni concrete contro la disinformazione e i fenomeni di deepfake, che rappresentano una minaccia crescente per la fiducia e la sicurezza degli utenti.
I limiti dell’iniziativa
Tuttavia, il limite più evidente di questa proposta è la sua natura prettamente volontaria: affidarsi esclusivamente all’autodichiarazione lascia ampi margini di manovra per chi desidera aggirare le regole.
Account automatizzati o con intenti malevoli potrebbero facilmente diffondere contenuti non etichettati, eludendo i controlli almeno fino a un’eventuale identificazione manuale. Inoltre, resta complesso definire con precisione cosa debba essere considerato “generato dall’AI”: il confine tra un editing leggero e una produzione completamente sintetica è spesso sottile e sfuggente.
Per affrontare queste criticità, molti esperti del settore suggeriscono di non limitarsi alla semplice autodichiarazione, ma di integrare strumenti più sofisticati: rilevamento automatico dei contenuti, watermarking digitale e utilizzo di metadati affidabili. L’adozione di standard comuni tra le diverse piattaforme digitali potrebbe rappresentare un argine efficace contro la diffusione di contenuti fraudolenti e facilitare il rispetto delle normative nazionali e internazionali.