Il mondo tecnologico è nel pieno di una corsa verso la creazione di sistemi AI superintelligenti, strumenti potenzialmente in grado di superare le capacità cognitive umane in quasi ogni campo. Tuttavia, cresce anche il fronte di chi chiede una pausa di riflessione. Oltre 800 personalità di spicco provenienti da ambiti diversi — tecnologia, politica, scienza, media, religione e persino regimi monarchici — hanno firmato una lettera aperta per chiedere una moratoria sullo sviluppo della superintelligenza finché non saranno soddisfatte rigorose condizioni di sicurezza e consenso pubblico.
Tra i firmatari figurano due dei “padri fondatori dell’AI”, Geoffrey Hinton e Yoshua Bengio, (entrambi si sono occupati di metodi innovativi nel campo del deep learning e delle reti neurali, fondamentali per lo sviluppo dei moderni modelli generativi e in generale dei Large Language Model, LLM) insieme a Steve Wozniak, cofondatore di Apple e Richard Branson, fondatore di Virgin Group. La lista include anche nomi inaspettati come Steve Bannon, ex stratega di Donald Trump, l’ex Capo di Stato Maggiore statunitense Mike Mullen, l’attore Joseph Gordon-Levitt, i musicisti Will.I.am e Grimes, oltre ai duchi di Sussex, Harry e Meghan.
Cosa chiedono i firmatari della lettera aperta schierati contro l’AI superintelligente
L’iniziativa, coordinata dal gruppo Future of Life Institute (FLI), propone un divieto temporaneo di sviluppo di “AI superintelligenti” finché non saranno raggiunti due obiettivi fondamentali:
- Un consenso scientifico diffuso sul fatto che tali sistemi possano essere sviluppati e gestiti in modo sicuro e controllabile.
- Un sostegno pubblico forte e informato, che porti a scongiurare la realizzazione di sistemi superintelligenti soltanto dalle multinazionali tecnologiche.
Il documento non nega i benefici dell’AI — come i progressi nel campo della salute o l’aumento della prosperità globale — ma sottolinea che la ricerca spasmodica verso la superintelligenza, prevista da alcune aziende entro il prossimo decennio, comporta rischi esistenziali per l’umanità.
Le preoccupazioni elencate non sono nuove: perdita di posti di lavoro e conseguente obsolescenza economica umana, riduzione della libertà e della dignità personale, minacce alla sicurezza nazionale e, nella visione più pessimistica, l’estinzione dell’umanità.
Il Future of Life Institute, di recente, ha accusato OpenAI di aver risposto alle critiche sulla necessità di maggiore supervisione con azioni legali ritorsive, tra cui citazioni in giudizio contro l’organizzazione e il suo presidente.
Secondo un sondaggio condotto su 2.000 adulti statunitensi, solo il 5% approva l’approccio che caratterizza molte aziende del settore. Il 75% degli intervistati desidera invece una regolamentazione solida e trasparente; il 60% ritiene che la superintelligenza non debba essere sviluppata finché non sia dimostrata sicura e controllabile. Un’indagine del Pew Research Center conferma la sfiducia diffusa: il 47% dei cittadini a stelle e strisce non crede che il governo sia in grado di regolare l’AI in modo efficace.
Cos’è la superintelligenza? Può esserci davvero?
Sam Altman, CEO di OpenAI, ha dichiarato che la superintelligenza arriverà entro il 2030, e che fino al 40% delle attività economiche attuali sarà automatizzato. Mark Zuckerberg, invece, ha affermato che Meta è “vicina” alla superintelligenza e che questa “darà più potere gli individui”. Tuttavia, la recente decisione di suddividere i Meta Superintelligence Labs in quattro team separati potrebbe indicare un rallentamento interno.
Quella che abbiamo utilizzato negli ultimissimi anni è l’intelligenza artificiale generativa: essa imita l’intelligenza umana usando però relazioni matematico-probabilistiche che legano i contenuti usati nella fase di addestramento. Ne parliamo nell’articolo sull’intelligenza artificiale spiegata facile.
Il termine intelligenza artificiale (AI) è nato per indicare sistemi in grado di svolgere compiti che richiedono capacità tipicamente umane, come il riconoscimento di immagini, la comprensione del linguaggio o la pianificazione. Tuttavia, l’uso popolare ha diluito il concetto: oggi vengono definiti “AI” strumenti di automazione, chatbot, algoritmi predittivi o motori di raccomandazione, pur trattandosi di tecnologie profondamente diverse per struttura e obiettivi.
In realtà, la comunità scientifica distingue almeno tre livelli di AI:
- AI ristretta (Narrow AI): quella che conosciamo oggi. Eccelle in compiti specifici (come ChatGPT o i sistemi di visione artificiale), ma non possiede comprensione generale o coscienza del contesto.
- AI generale (AGI – Artificial General Intelligence): un sistema capace di apprendere e ragionare in modo flessibile su qualsiasi compito cognitivo. L’AGI rappresenta il punto di transizione in cui una macchina non solo “simula” l’intelligenza, ma è concepita per sviluppare un comportamento operativo.
- Superintelligenza (ASI – Artificial Superintelligence): il livello ancora successivo, in cui l’AI può superare le capacità umane nelle varie dimensioni cognitive: analisi, creatività, strategia, e perfino intuizione e adattamento. È qui che iniziano le vere preoccupazioni etiche e di sicurezza.
Cosa intendono le aziende per “superintelligenza”
Quando le aziende tecnologiche parlano di superintelligenza, non si riferiscono semplicemente a un modello di linguaggio più grande o a un algoritmo più veloce. Tecnicamente, il termine indica un sistema in grado di autogestire il proprio ciclo di apprendimento, migliorando i propri modelli e obiettivi senza intervento umano diretto.
In concreto, questo implica la capacità di formulare nuovi obiettivi e strategie in modo indipendente, basandosi su meta-apprendimento (“apprendere come apprendere“). Inoltre, si fa riferimento a un sistema in grado di trasferire conoscenze da un dominio all’altro, senza essere esplicitamente addestrato su quei contesti.
La possibilità di analizzare simultaneamente dati e variabili in quantità inarrivabili per la mente umana, con tempi di adattamento praticamente istantanei, è un’altra caratteristica dell’identikit della superintelligenza. Che è anche in grado di automigliorarsi (recursive self-improvement), potenzialmente migliorando il suo stesso codice, ottimizzando le proprie architetture neurali o generando nuovi modelli più performanti. È il punto più critico, perché un ciclo non controllato di auto-miglioramento può portare a una crescita esponenziale dell’intelligenza, oltre la nostra capacità di supervisione.
Ma è davvero possibile creare una superintelligenza?
Dal punto di vista teorico la creazione di una superintelligenza non è logicamente impossibile, tuttavia è il risultato di una concatenazione di progressi tecnici e ingegneristici molto specifici e indipendenti, non di una singola svolta miracolosa.
Oggi le strade più concrete sono cinque: (1) modelli di base sempre più grandi (es. evoluzioni dei transformer) che mostrano capacità nuove man mano che aumentano parametri, dati e potenza di calcolo; (2) meta-learning e auto-miglioramento controllato (tecniche che permettono al sistema di migliorare come impara, AutoML, ottimizzazione automatica), utili ma rischiose se il sistema sviluppa obiettivi propri non allineati; (3) apprendimento tramite interazione e world models (reinforcement learning basato su modelli, simulazioni ad alta fedeltà) necessari per pianificare a lungo termine e trasferire capacità dalla simulazione al mondo reale; (4) integrazione neuro-simbolica e ragionamento causale, che servono per fare inferenze robuste, spiegabili e composizionali, non solo correlazioni; (5) progresso hardware e infrastrutturale (acceleratori, memoria a banda larga, infrastrutture distribuite, e forse in futuro sistemi neuromorifici/quantisici) che rendano praticabili addestramento e inferenza su scala enorme.
I principali ostacoli pratici sono però concreti e non banali: definire esattamente cosa deve ottimizzare un sistema, ottenere “robustezza fuori distribuzione” (performance affidabile quando il mondo cambia), avere metodi di verifica e interpretabilità efficaci per agenti che imparano continuamente, e contenere allo stesso tempo i costi energetici e infrastrutturali.
In breve: i percorsi tecnici verso AGI/ASI sono plausibili e delineabili, ma la loro realizzazione sicura richiede ancora soluzioni pratiche per allineamento, verifica, efficienza e governance.
Malgrado la risonanza della lettera aperta, è improbabile che l’appello ottenga un effetto concreto. Un’iniziativa simile nel 2023, firmata anche da Elon Musk, non riuscì a frenare l’ambizione dei colossi tecnologici. La differenza, oggi, è che la consapevolezza pubblica sui rischi dell’AI è cresciuta.