Il confronto tra i principali laboratori di intelligenza artificiale si gioca su un equilibrio delicato tra capacità tecniche, sostenibilità economica e gestione dei rischi. In un momento in cui i modelli linguistici di nuova generazione superano rapidamente soglie di performance fino a pochi anni fa impensabili, le dichiarazioni di Dario Amodei, CEO di Anthropic ed ex responsabile della ricerca in OpenAI, riaprono il dibattito sulla maturità dei processi di valutazione del rischio.
Il contesto è segnato da una competizione globale per la costruzione di sistemi AGI (Intelligenza Artificiale Generale) e da investimenti in infrastrutture di calcolo che crescono con un ordine di grandezza ogni 12–18 mesi. In questo scenario, la governance della sicurezza non rappresenta un elemento accessorio ma un vincolo strutturale per l’intero comparto tecnologico.
L’ultimo intervento pubblico di Amodei riporta l’attenzione su un punto critico: alcune aziende starebbero sottovalutando la portata delle tecnologie che stanno costruendo.
Il CEO di Anthropic afferma di avere l’impressione che alcune aziende concorrenti “non comprendano realmente i rischi che stanno correndo” e che adottino strategie guidate più dall’entusiasmo tecnologico che da un’analisi rigorosa delle conseguenze. Pur senza nominare direttamente OpenAI, il riferimento è apparso evidente alla luce della competizione tra i due gruppi e delle differenze nelle politiche di sicurezza.
Il numero uno di Anthropic aggiunge che una parte dell’industria non avrebbe ancora formalizzato in modo adeguato l’analisi dei rischi legati allo sviluppo dei modelli più avanzati, lasciando intendere che alcune decisioni operative siano guidate più da dinamiche di mercato e di immagine che da metriche strutturate di sicurezza.
La critica è chiara: la pianificazione degli investimenti in capacità di calcolo, l’incremento della complessità dei modelli e la rapidità dei rilasci pubblici dovrebbero essere accompagnati da modelli quantitativi di rischio, analoghi a quelli utilizzati in ambiti safety-critical come l’aviazione o il nucleare.
Il ruolo del calcolo e la gestione del rischio sistemico
La crescita delle prestazioni dei modelli generativi è strettamente legata all’aumento del compute utilizzato per l’addestramento. I sistemi più avanzati vengono sviluppati su cluster GPU di classe data center con architetture basate su acceleratori H100 o equivalenti, e richiedono dataset con centinaia di miliardi di token.
Amodei sottolinea come tali investimenti implichino decisioni con impatti a lungo termine: un errore di previsione sulle traiettorie di crescita del mercato o sulle capacità dei modelli può generare squilibri finanziari significativi, fino a scenari di insolvenza se i ritorni economici non si materializzano nei tempi previsti.
Il problema non è solo finanziario. L’aumento della potenza dei modelli introduce nuove superfici di rischio, come la possibilità che sistemi con capacità emergenti siano utilizzati per attività dannose, incluse applicazioni in ambito biochimico o cyber offensivo. Anthropic stessa ha riconosciuto che modelli di fascia alta possono essere sfruttati per facilitare la progettazione di agenti chimici o per automatizzare attacchi informatici complessi.
Un settore in cerca di standard condivisi
Il confronto tra Anthropic e OpenAI rappresenta un caso emblematico che ha a che fare con la maturazione dell’industria AI, in cui le scelte tecniche e strategiche hanno implicazioni sistemiche.
L’assenza di standard condivisi e verificabili per la valutazione dei rischi crea un terreno frammentato, in cui ogni laboratorio definisce autonomamente le proprie soglie di sicurezza e i criteri di rilascio.
La sfida consiste nel trasformare pratiche volontarie in standard verificabili, integrando audit indipendenti, valutazioni pre-deployment e meccanismi di controllo continuo dei modelli in produzione.
In assenza di tali strumenti, l’innovazione accelerata rischia di procedere più velocemente della capacità di governarla, amplificando le preoccupazioni espresse da Amodei sulla reale comprensione dei rischi associati allo sviluppo di sistemi di intelligenza artificiale sempre più potenti.
Anthropic, ad esempio, nasce nel 2021 sotto la spinta di ex dirigenti OpenAI con l’obiettivo di sviluppare sistemi AI “allineati”, cioè progettati per operare entro vincoli di sicurezza e affidabilità definiti. Amodei ha sottolineato come l’innovazione accelerata possa portare a decisioni tecniche non sufficientemente ponderate sul piano della sicurezza.
Il ruolo delle policy di sicurezza e dei framework interni
Le aziende del settore hanno sviluppato strutture di governance interne per gestire i rischi. OpenAI ha introdotto il proprio Preparedness Framework, che definisce soglie di capacità e scenari di rischio per stabilire quando limitare o ritardare il rilascio di un modello. Tuttavia, studi indipendenti hanno evidenziato come tali framework possano lasciare margini di discrezionalità significativa, consentendo la distribuzione di sistemi con capacità potenzialmente associate a danni gravi in determinate condizioni.
Anthropic adotta invece un approccio centrato sulla constitutional AI, una tecnica di addestramento che combina reinforcement learning con linee guida etiche esplicite integrate nel modello. Questo metodo mira a ridurre comportamenti pericolosi già nella fase di training, limitando la necessità di filtri a posteriori. L’azienda sostiene che tali tecniche, pur non eliminando completamente il rischio, migliorino la robustezza rispetto alle soluzioni alternative.
La dimensione geopolitica e regolatoria
La competizione tra aziende statunitensi si intreccia con una dimensione geopolitica più ampia. La leadership tecnologica nel settore dell’AI è considerata strategica, con implicazioni per la sicurezza nazionale e la superiorità economica.
Amodei ha sostenuto la necessità di un coordinamento tra paesi democratici per evitare che sistemi avanzati siano utilizzati in contesti militari o autoritari senza adeguate garanzie.
Nel frattempo, governi e istituzioni stanno lavorando a regolamenti che includono obblighi di trasparenza, test di sicurezza pre-rilascio e responsabilità per danni causati da sistemi autonomi. L’Unione Europea, con l’AI Act, ha messo sul campo uno degli sforzi più avanzati per definire requisiti tecnici e legali dei modelli di frontiera ossia i modelli AI tra i più avanzati disponibili, sviluppati al limite delle capacità tecnologiche attuali.