IBM e Nighthawk: come il quantum computing entra davvero nell’industria

IBM consolida la leadership nel calcolo quantistico con il processore Nighthawk, una roadmap fino a 100.000 qubit e un approccio enterprise basato su cloud e integrazione industriale.

Il calcolo quantistico o quantum computing è passato dall’essere un esercizio teorico confinato ai laboratori universitari a una priorità industriale per governi, grandi imprese e investitori istituzionali. In questo contesto, una multinazionale con oltre un secolo di storia come IBM ha scelto di puntare in modo deciso su una strategia di lungo periodo, trasformando la ricerca quantistica in una piattaforma tecnologica utilizzabile in scenari reali. La presenza del CEO di IBM Arvind Krishna al World Government Summit di Dubai ha ribadito come il tema non sia più sperimentale, ma parte integrante delle infrastrutture digitali future.

Le radici di questa scelta affondano negli anni Settanta, quando IBM iniziò a studiare i primi modelli teorici di informazione quantistica.

Oggi, con miliardi di dollari investiti e una roadmap pubblica che arriva al 2033, l’azienda si colloca in una posizione distinta rispetto a operatori più giovani e focalizzati su singole nicchie. I numeri di bilancio del 2025 e l’interesse crescente dei grandi fondi indicano che il mercato percepisce il calcolo quantistico non come una scommessa isolata, ma come un’estensione coerente della strategia enterprise del gruppo.

Dalla teoria quantistica alle piattaforme industriali

Un computer quantistico si basa su qubit, unità di informazione che sfruttano proprietà come sovrapposizione ed entanglement.

A differenza dei bit classici, vincolati a valori binari, i qubit possono rappresentare combinazioni di stati, consentendo di esplorare spazi computazionali enormi.

IBM utilizza principalmente qubit superconduttivi, realizzati con giunzioni Josephson raffreddate a temperature prossime allo zero assoluto, una scelta che privilegia scalabilità e integrazione con l’elettronica esistente. Nell’articolo dedicato alle soluzioni quantistiche di Quantinuum abbiamo presentato i vari approcci utilizzati per gestire qubit stabili e controllabili.

L’architettura basata sul calcolo quantistico, conferma Krishna, non è pensata per sostituire i sistemi tradizionali, ma per affiancarli in carichi di lavoro specifici. Problemi di ottimizzazione, simulazioni chimiche e modelli finanziari complessi sono ambiti in cui l’elaborazione quantistica promette vantaggi concreti.

I computer quantistici rimangono invece poco adatti per le applicazioni general purpose, come l’elaborazione di documenti o i carichi transazionali classici.

Il processore Nighthawk e l’evoluzione dell’hardware

Il cuore dell’attuale strategia hardware IBM è il processore Nighthawk, un chip quantistico da 120 qubit progettato per migliorare la complessità computazionale senza sacrificare l’affidabilità operativa.

Rispetto al predecessore Heron, Nighthawk introduce un aumento del 20% delle connessioni tra qubit, fattore cruciale per eseguire circuiti più profondi e algoritmi più articolati.

Un parametro centrale è la fedeltà, che misura quanto l’output reale si avvicini al comportamento ideale del circuito quantistico. IBM ha mantenuto livelli comparabili a Heron pur incrementando la complessità, segnale di un controllo più maturo sugli errori e sulle interferenze. L’azienda prevede che, con l’uso continuo da parte di clienti e ricercatori, le prestazioni miglioreranno ulteriormente grazie all’ottimizzazione dei firmware e delle tecniche di calibrazione.

Scalabilità, roadmap e limiti fisici

IBM dichiara di avere oggi oltre 2.000 qubit accessibili complessivamente tramite i propri sistemi, con un singolo computer che supera i 1.100 qubit. L’obiettivo dichiarato è arrivare a un sistema da 100.000 qubit entro il 2033, traguardo che richiede non solo nuovi chip, ma anche progressi nella correzione degli errori e nell’interconnessione modulare.

La correzione quantistica degli errori rappresenta uno dei principali colli di bottiglia. Gli attuali dispositivi appartengono alla categoria NISQ (Noisy Intermediate-Scale Quantum), caratterizzata da rumore e decoerenza. IBM sta lavorando su codici di superficie e architetture modulari per ridurre l’impatto di questi limiti, consapevole che la scalabilità non è solo una questione di numero di qubit, ma di stabilità complessiva del sistema.

Accesso cloud e integrazione enterprise

Un elemento distintivo della proposta IBM è l’accesso tramite cloud, che consente a università, startup e grandi aziende di sperimentare algoritmi quantistici senza investire in infrastrutture fisiche complesse. Attraverso ambienti di sviluppo dedicati e integrazioni con sistemi classici, il calcolo quantistico è presentato come un acceleratore specializzato, inserito in pipeline ibride.

Questa impostazione riduce la distanza tra ricerca e applicazione industriale, favorendo casi d’uso concreti in ambiti come la sicurezza crittografica post-quantum, la progettazione di nuovi materiali e l’ottimizzazione logistica.

A detta del CEO Krishna, l’approccio enterprise differenzia IBM da operatori focalizzati su dimostrazioni di laboratorio o su architetture difficilmente integrabili.

Mercati finanziari e sostenibilità dell’investimento

I risultati finanziari del 2025 mostrano una crescita significativa di ricavi e utili, con margini che rimangono elevati nonostante l’intensità degli investimenti in ricerca.

Il calcolo quantistico, pur non essendo ancora una fonte diretta di ricavi su larga scala, è percepito come un pilastro cruciale nel lungo periodo. La combinazione di competenze storiche, infrastrutture globali e una roadmap trasparente rende IBM un attore centrale in una tecnologia che sta gradualmente uscendo dalla fase sperimentale per entrare in quella industriale.

Ti consigliamo anche

Link copiato negli appunti