Nel pensiero tecnologico contemporaneo, abituati come siamo alla costante accelerazione sul pedale dell’innovazione, immaginare un futuro senza silicio appare quasi eresia. Eppure, una voce autorevole come quella di John Carmack invita a riflettere su uno scenario inquietante, certamente non impossibile, in cui la produzione di chip mondiale si arresta. Come potremmo reagire? Carmack rilancia il post di “LaurieWired“, ricercatrice Google e grande esperta di tecnologia che sottolinea come l’unica via d’uscita possibile, la soluzione per “restare a galla”, sarebbe puntare seriamente sull’ottimizzazione software.
Lo scenario dipinto non è propriamente distopico: la più significativa e improvvisa diminuzione della produzione di chip a livello mondiale si è verificata tra la fine del 2020 e il 2022, a causa di una combinazione di fattori che hanno portato a una crisi globale dei semiconduttori. In un articolo dedicato, avevamo a suo tempo provato a rispondere alle domande sulla carenza di chip e semiconduttori.
Vi siete mai chiesti cosa significherebbe davvero vivere in un mondo che non può più contare sulla nuova produzione di semiconduttori?
Z-Day: cos’è e perché fa riflettere sulla necessità di puntare sull’ottimizzazione software
Il presupposto di base è semplice ma devastante: si immagini un giorno in cui, per ragioni ambientali, geopolitiche o industriali, la produzione globale di nuovi chip cessa. Quella giornata, battezzata, Z-Day (Zero Silicon Day) diviene l’inizio della regressione informatica. La catena di fornitura si blocca, e le leggi della fisica diventano arbitri per determinare l’effettiva longevità del silicio esistente.
Non pensiamo a una sospensione temporanea, ma a una crisi strutturale che mette fine alla disponibilità di nuovo silicio avanzato.
Nessun nuovo nodo produttivo, nessuna nuova CPU o GPU, nessuna nuova memoria DRAM o NAND Flash: tutto il mondo si ritrova a dover sopravvivere con l’hardware esistente.
In questo scenario, l’innovazione tecnologica non è più trainata dall’hardware, ma dall’estrema ottimizzazione del software e dalla gestione conservativa delle risorse computazionali. Il progresso assume un nuovo significato: non più “avere sempre di più”, ma “fare meglio con meno”. È un punto di svolta radicale nella storia dell’informatica, dove il concetto stesso di obsolescenza programmata viene demolito, e la resilienza delle architetture legacy diventa il nuovo standard di eccellenza tecnica.
È di fatto un ritorno al passato, quando gli sviluppatori dovevano davvero fare i conti con piattaforme hardware in grado di fornire risorse limitate e spesso appena sufficienti per svolgere le elaborazioni prefisse. L’imperativo era quindi un’ottimizzazione software portata all’estremo.
Black’s Equation e il destino dei chip
Come sottolinea LaurieWired, la Black’s Equation diventa cruciale: quanto più piccolo è il nodo produttivo, tanto più velocemente si degrada il circuito. I chip avanzati a 5 nm o 3 nm muoiono in tempi sorprendentemente brevi se non gestiti bene, soprattutto sul piano della dissipazione del calore.
Nell’ingegneria elettronica, Black’s Equation descrive il tempo medio al guasto (MTTF) di un circuito basato su semiconduttori a causa dell’elettromigrazione, un fenomeno fisico in cui gli atomi si spostano sotto l’influenza di un campo elettromagnetico. Il modello, sviluppato da James R. Black negli anni ’60, permette di stimare l’affidabilità dei componenti elettronici in condizioni operative reali, estrapolando dati sperimentali ottenuti in laboratorio sotto stress elevati.
In questo scenario, gli utenti tecnicamente preparati diventano conservatori di silicio, “spremendo” ogni ciclo di clock da hardware ormai divenuto insostituibile.
Z+30: trent’anni senza chip. Storia del collasso computazionale
Il post di LaurieWired descrive il lungo inverno del silicio, tracciando la cronistoria di un mondo senza semiconduttori.
Anno 1-3: il mondo dell’informatica è costretto ad accantonare le inefficienze dell’odierno ecosistema software: basta microservizi interpretati, via libera ad eseguibili compatti e ottimizzati, scritti in linguaggi compilati a basso livello (com C++ e Rust), pensati per essere eseguiti direttamente sul sistema operativo, senza strati intermedi o virtualizzati.
Tutto torna ad avere peso: ogni ciclo di CPU conta, ogni byte di RAM è prezioso. L’ottimizzazione non è più una virtù, ma una necessità economica.
Nel frattempo, i data center sono cannibalizzati: componenti hardware riciclati, schede madri dissaldate,… Il cloud implode su sé stesso, le grandi aziende lottano per ridurre i carichi computazionali a livelli compatibili con la scarsità dei chip disponibili.
Anno 7: I SoC usati nei dispositivi mobili, saldati con stagno senza piombo e progettati per l’obsolescenza, iniziano a manifestare seri problemi di funzionamento. Gli smartphone diventano dispositivi a vita breve. Il mercato dell’usato esplode, soprattutto per i veicoli “stupidi” non connessi, con ECU (Electronic Control Unit) meno complesse e più affidabili nel lungo termine.
Anno 15: Con l’assenza di nuovi chip che perdura da tanti anni, si torna al calcolo distribuito… ma in modalità offline. L’Internet globale si frammenta: reti satellitari, peering privati, piccole dorsali sopravvissute. L’archiviazione si converte completamente ai supporti ottici, che offrono una longevità superiore e una maggiore immunità all’obsolescenza dei controller.
Anno 30 (Z+30): è l’età dell’oro dell’hardware vintage. Con la produzione di silicio ferma da tre decenni, sopravvive solo l’hardware costruito con nodi a 90 nm, 130 nm e oltre. I Motorola 68000, Game Boy, Commodore 64, e Macintosh SE non solo funzionano ancora, ma diventano strumenti quotidiani per chi può permetterseli. Le architetture RISC e CISC degli anni ’80 e ’90, per decenni snobbate, tornano a essere centrali.
E LaurieWired estremizza il concetto: toolchain e ambienti di sviluppo sono riscritti per hardware obsoleti. Nascono nuove distribuzioni Linux minimali, compilate per 486, PowerPC o MIPS, ottimizzate per occupare meno di 4 MB di RAM.
Oltre la distopia, la resilienza
Il mondo “post-Z-Day” immaginato da Carmack e LaurieWired non è solo una distopia tecnologica: è soprattutto uno stimolo per una riflessione radicale sulla fragilità di scelte che, soltanto in linea teorica, sembrano resilienti e progettate per il lungo termine.
La provocazione di LaurieWired ci invita a riconsiderare i fondamenti dell’informatica moderna, troppo spesso fondata sull’iper-astrazione, sullo spreco di risorse computazionali e sull’idea che il nuovo sia sempre meglio.
Dobbiamo metterci in testa che le risorse non sono infinite e che tutto può e deve essere ottimizzato. Codice efficiente, architetture robuste, e creatività sono pilastri sui quali dovremmo investire sempre e comunque, anche oggi.
Chi è John Carmack?
John Carmack è un programmatore e ingegnere statunitense, tra i più influenti nella storia dei videogiochi e dell’informatica. Nato nel 1970, ha co-fondato negli anni ’90 la storica id Software, dove ha scritto, da solo o quasi, i motori di titoli rivoluzionari come Wolfenstein 3D, Doom e Quake, grazie ai quali ha fissato nuovi standard di grafica 3D e ottimizzazione del codice.
Dopo aver lasciato id Software, si è dedicato alla realtà virtuale come CTO di Oculus (acquisita da Facebook/Meta), contribuendo a rendere la realtà virtuale più accessibile e performante.
Oltre ai videogiochi, Carmack è famoso per il suo approccio “bare-metal”: predilige scrivere codice nativo, altamente ottimizzato, per spremere al massimo l’hardware disponibile. Proprio da qui nasce la sua riflessione sulla possibilità di far girare gran parte “del mondo” su hardware “datato”, purché il software sia ottimizzato fino all’ultimo byte.
Credit immagine in apertura: LaurieWired