Claude Mythos non è semplicemente un altro modello linguistico di grandi dimensioni (LLM): rappresenta un salto qualitativo nella capacità delle AI di comprendere, analizzare e manipolare software complessi. Sviluppato da Anthropic come modello di frontiera, Mythos è stato reso disponibile solo a un gruppo ristretto di organizzazioni nell’ambito del Project Glasswing, proprio per via delle sue implicazioni nell’ambito della sicurezza. Le informazioni pubbliche, raccolte nella documentazione ufficiale, descrivono un sistema capace di individuare e sfruttare vulnerabilità software con un livello di autonomia e precisione superiore a quello della maggior parte degli esperti umani. Nei test reali, Mythos ha identificato migliaia di vulnerabilità ad alta gravità, incluse falle zero-day in sistemi operativi e browser diffusi.
Il dato che colpisce non è solo quantitativo ma qualitativo: Mythos non si limita a suggerire possibili bug, ma riesce a costruire catene di exploit complete, passando dall’analisi del codice alla compromissione effettiva del sistema. In benchmark specifici come CyberGym o SWE-bench, ha superato in modo netto modelli precedenti come Claude Opus, raggiungendo livelli che iniziano a sovrapporsi alle capacità di team di sicurezza professionali.
Claude Mythos è un progetto “segreto”? Ecco che nasce OpenMythos
L’idea alla base dello sviluppo di OpenMythos non è quella di replicare il modello di Anthropic. L’intento è invece quello di ricostruire un’architettura plausibile che possa avvicinarsi alle prestazioni di Claude Mythos e, soprattutto, spiegarle tecnicamente.
Se un sistema è in grado di trovare vulnerabilità meglio di un team umano, allora ogni codice distribuito diventa potenzialmente analizzabile su larga scala. E non solo da soggetti che lavorano con mire difensive: la stessa tecnologia, se accessibile, può essere usata per automatizzare attacchi complessi. Anthropic stessa ha sottolineato che queste capacità potrebbero superare la velocità di risposta delle difese tradizionali, aprendo a scenari di exploit su larga scala. Per questo l’azienda ha deciso di mantenere “segreto” il funzionamento di Mythos.
Il progetto OpenMythos prova però a rispondere a una domanda molto concreta: che tipo di struttura interna serve per ottenere un modello capace di ragionare sul codice in modo così profondo e iterativo? La soluzione proposta si basa su transformer con meccanismi ricorrenti (cioè in grado di riutilizzare le informazioni nei passaggi successivi), su una profondità dinamica della rete (che varia in base alla complessità del compito) e sul riutilizzo dei parametri, ovvero degli stessi pesi del modello, per ridurre il volume totale di risorse necessarie.
Una ricostruzione teorica, non un modello reale
Va chiarito subito un punto: OpenMythos non nasce né da un leak (diffusione non autorizzata di informazioni riservate) né è un modello ottenuto tramite distillazione, ovvero una tecnica che trasferisce conoscenza da un sistema più grande a uno più piccolo. Gli autori lo descrivono come una ricostruzione “first-principles“, cioè basata su ipotesi verificabili e letteratura esistente. Il codice è pubblico e testabile; i pesi ottenuti durante l’addestramento, invece, non costituiscono un modello formale o ufficiale, ma sono semplicemente i parametri numerici appresi dal sistema durante il processo di apprendimento, che determinano come il modello elabora i dati e produce risultati.
Il progetto si appoggia a risultati accademici recenti e integra componenti già noti, evitando di rivendicare innovazioni radicali. In pratica, è un esercizio di reverse engineering teorico: si osservano le capacità attribuite a Mythos e si cerca un’architettura coerente che possa spiegarle.
Impatto reale sullo sviluppo e sulla sicurezza del software
Resta una domanda più ampia, che va oltre l’architettura o i numeri: cosa cambia davvero per chi sviluppa software?
Strumenti come Mythos, e probabilmente in futuro anche OpenMythos, abbassano drasticamente la soglia di accesso all’analisi avanzata del codice di programmazione. Attività che prima richiedevano giorni di lavoro manuale – auditing, fuzzing, revisione approfondita – possono essere accelerate o automatizzate. In pratica, il tempo tra la pubblicazione di un’applicazione e la scoperta di una vulnerabilità tende a ridursi drasticamente.
Va detto però che l’effetto non è solo negativo. Gli stessi modelli possono essere utilizzati per migliorare la qualità del codice prima del rilascio: analisi preventiva, suggerimenti di hardening, individuazione di pattern rischiosi. Il problema è la simmetria: attaccanti e difensori hanno accesso a strumenti simili, ma non sempre con le stesse risorse o con la stessa velocità di aggiornamento.
Un altro aspetto interessante riguarda la scala. Un singolo modello può analizzare grandi quantità di codice in tempi molto brevi, cosa che cambia anche il modo in cui si gestiscono progetti complessi o legacy. Quando in precedenza si interveniva solo su parti critiche, adesso si possono svolgere controlli più estesi e frequenti.
OpenMythos indica la direzione verso la quale si stanno muovendo i modelli più avanzati e suggerisce che la competizione non si giocherà solo sulla dimensione, ma sulla capacità di effettuare attività di inferenza complesse su codice articolati e con molteplici riferimenti correlati. Per chi lavora nella sicurezza, significa adattarsi a un ritmo diverso. Più veloce, meno prevedibile, e decisamente più automatizzato.