Nel gennaio 2026, la piattaforma X si è trovata al centro di un acceso dibattito globale sulla trasparenza algoritmica, dopo aver annunciato la pubblicazione del proprio algoritmo di raccomandazione su GitHub.
Un gesto apparentemente rivoluzionario, reso ancora più clamoroso dalla recente multa da120 milioni euro inflitta dall’Unione Europea, che ha costretto la società guidata da Elon Musk a compiere un passo formale verso l’open source per allinearsi alle richieste del Digital Services Act. Tuttavia, la domanda che si sono posti esperti, ricercatori e utenti è rimasta sospesa nell’aria: questa apertura rappresenta davvero un avanzamento verso una maggiore accountability, oppure si tratta di una strategia comunicativa ben calibrata per placare le pressioni normative senza scoprire i reali meccanismi operativi della piattaforma?
La decisione di rendere pubblico il codice sorgente su GitHub ha senza dubbio acceso i riflettori sulla struttura interna dell’algoritmo di X. Ora, chiunque può analizzare come la piattaforma valuta le interazioni tra gli utenti, applica modelli di apprendimento automatico e ordina i contenuti secondo criteri di rilevanza e diversità. Al centro di questo sistema, spicca il ruolo di Grok, un trasformatore progettato per identificare pattern di pertinenza e ottimizzare la selezione dei contenuti. Non meno importante, la logica degli esclusori — che filtra post provenienti da account bloccati, parole chiave silenziate, contenuti violenti o spam — è ora finalmente leggibile e analizzabile da ricercatori indipendenti e sviluppatori di tutto il mondo.
L’algoritmo di Grok diventa open source: cosa significa?
Tuttavia, se da un lato la pubblicazione del codice ha rappresentato un passo in avanti verso l’open source, dall’altro ha evidenziato le profonde ambiguità che ancora caratterizzano il concetto di trasparenza in ambito algoritmico.
La comunità scientifica e i giuristi sottolineano come la visibilità del codice non equivalga a una reale comprensione del funzionamento della piattaforma: restano infatti nascosti i dati utilizzati per il training dei modelli, i criteri precisi che guidano le decisioni algoritmiche e, soprattutto, le differenze tra il modello pubblicato e quello effettivamente in produzione. Questo gap informativo suggerisce una strategia aziendale ben precisa: rispondere formalmente alle richieste del Digital Services Act per ridurre la pressione normativa, senza però mettere a rischio i vantaggi competitivi e la sicurezza operativa della piattaforma.
Non mancano poi le preoccupazioni legate alla sicurezza e alla manipolazione dei contenuti. La disponibilità del codice su GitHub apre la porta a una doppia possibilità: da un lato, attori malintenzionati potrebbero studiare l’algoritmo per ottimizzare strategie di manipolazione e amplificare la disinformazione; dall’altro, la stessa apertura favorisce un controllo peer-to-peer, consentendo a esperti di sicurezza di individuare vulnerabilità e proporre miglioramenti. È un equilibrio delicato, che richiede un monitoraggio costante e una collaborazione trasparente tra piattaforma, comunità tecnica e autorità regolatorie.