Nel 1976, il panorama dell’informatica era dominato da sistemi mainframe e minicomputer costosi, destinati quasi esclusivamente ad aziende, università e centri di ricerca. L’idea di un personal computer era ancora un concetto di nicchia, alimentato da club di appassionati come l’Homebrew Computer Club, dove pionieri e hobbisti sperimentavano circuiti, microprocessori e linguaggi di programmazione di basso livello.
Fu allora che Steve Jobs e Steve Wozniak presentarono l’Apple I, il primo computer prodotto dalla neonata Apple Computer. Venduto inizialmente come scheda madre assemblata ma priva di case, tastiera e monitor, era basato su un microprocessore MOS Technology 6502 a 1 MHz, disponeva di 4 KB di RAM (espandibili a 48 KB) e offriva 256 byte di memoria per il programma di avvio. Il prezzo di lancio di 666,66 dollari – oggi pari a circa 3.700 dollari tenendo conto dell’inflazione – lo collocava come prodotto per appassionati più che per il grande pubblico.
Nonostante la sua breve vita commerciale – circa 200 unità vendute e sostituzione rapida con l’Apple II nel 1977 – l’Apple I segnò un punto di svolta: dimostrò che un computer completo, pur rudimentale, poteva essere posseduto e gestito da un singolo individuo.
Un Apple I “rivisitato” per l’era dell’intelligenza artificiale
Quasi cinquant’anni dopo, al Vintage Computer Festival West, un evento organizzato dal Computer History Museum, una replica dell’Apple I ha sorpreso il pubblico: equipaggiata con un modulo WiFi moderno, è capace di interagire con il chatbot ChatGPT.
Il progetto porta la firma di Daniel Kottke, storico collaboratore di Apple e figura chiave nello sviluppo del Macintosh. La replica mantiene la filosofia hardware originale, con un numero limitato di circuiti integrati, ma aggiunge un ponte tecnologico verso il presente grazie alla connettività di rete.
L’esperimento dimostra un principio fondamentale del cloud computing moderno: la potenza di calcolo può essere esternalizzata, permettendo anche a sistemi estremamente lenti secondo gli standard attuali di accedere a servizi complessi come i modelli linguistici di ultima generazione.
La potenza di ChatGPT su hardware vintage
Per usare ChatGPT non è necessario disporre di hardware costoso perché tutte le elaborazioni (inferenza) sono svolte sul cloud. Basta una connessione stabile e una pipeline di input/output testuale per permettere a un sistema basato su di un processore da 1 MHz di “dialogare” in tempo reale con un’intelligenza artificiale di livello avanzato.
Come si vede in questo video pubblicato su LinkedIn, comunque, Kottke parla genericamente di GPT e non ChatGPT. Questo significa che il 12esimo dipendente della storia di Apple, amico di Steve Jobs fin dall’università, ha realizzato un programma funzionante per Apple I capace di inviare richieste HTTP ai modelli di OpenAI. Lo scambio di dati avviene tramite la scheda WiFi, che Kottke dichiara essere stata realizzata appena qualche settimana fa, aggiunta alla motherboard del sistema Apple.
ChatGPT è infatti un chatbot, un’applicazione di alto livello che a sua volta poggia il suo funzionamento sui Large Language Model (LLM) di OpenAI (GPT, Generative Pre-trained Transformer).
Le richieste (prompt testuali) vengono inviate in formato JSON al modello GPT in cloud, suddivise in “token” (unità di sottoparole) e la risposta ricevuta ricomposta e trasmessa sul terminale vintage.
Il significato e le prospettive
La dimostrazione di Kottke è più di una curiosità da un evento dedicato al retrocomputing: è un esempio di come la connettività trasformi i limiti dell’hardware. Se nel 1976 l’Apple I rappresentava il massimo accessibile per un appassionato, oggi quel medesimo design, anche se solo in replica, può diventare un terminale per una rete globale di calcolo avanzato.
Certo, esistono innumerevoli motivi per preferire un’AI “on-device” – legati a privacy, sicurezza e resilienza – ma la tendenza attuale vede l’AI accessibile “ovunque e su qualsiasi cosa” purché connessa. Questa convergenza tra epoche tecnologiche suggerisce che, prima o poi, l’intelligenza artificiale sarà parte integrante di qualsiasi dispositivo, indipendentemente dalla sua potenza di calcolo nativa.
Un po’ più in grande è l’idea di Microsoft che spingerà sempre di più sull’uso di “thin client“, sistemi dotati di una configurazione hardware minimale capaci di usare sistemi operativi “fisicamente” in esecuzione su sistemi remoti. Un approccio, come Windows 365, che molto probabilmente sarà protagonista in Windows 12, con tutti i suoi pro e contro. Primo tra tutti, quello di mantenere dati propri su server direttamente gestiti da altre aziende.
L’idea non è nuova: ChatGPT è già sbarcato sul Commodore 64
Già a maggio 2025 vi abbiamo parlato di un esperimento molto simile. Quella volta ChatGPT fu fatto funzionare su un Commodore 64, la cui commercializzazione iniziò diversi anni dopo Apple I, a partire dal 1982.
La dimostrazione che ha coinvolto il Commodore 64 si basa su una soluzione sovrapponibile con quella adoperata da Kottke. Come abbiamo raccontato nel nostro articolo, basta dotare il Commodore 64 di una scheda di rete come 64NIC+ o similari per compiere “la magia”.
In Italia esiste una BBS, accessibile anche via Internet e gestita da RetroCampus, che funge da interfaccia tra il computer di altri tempi (come può essere appunto il Commodore 64) e i modelli GPT di OpenAI e dell’europea Mistral AI.
L’immagine in apertura è tratta dal video di Chris Skitch (LinkedIn)