Per anni uno standard di interfaccia come PCI Express (PCIe) è rimasto associato quasi esclusivamente alle schede video. Bastava aprire un PC desktop per capire subito quale fosse il suo ruolo: la GPU occupava lo slot x16 principale, mentre il resto dell’hardware comunicava attraverso interfacce molto più lente. Poi qualcosa è cambiato. Lo storage ha iniziato a pretendere una banda passante sempre più elevata, i controller SATA hanno raggiunto rapidamente i propri limiti e le unità SSD NVMe hanno trasformato PCIe nella dorsale centrale di qualunque sistema ad alte prestazioni.
La differenza rispetto al passato è enorme. Un SSD SATA III moderno si ferma intorno ai 550 MB/s a causa dei limiti dell’interfaccia stessa; un SSD NVMe PCIe 5.0 supera già oggi i 14.000 MB/s. In pratica, la tecnologia nata per accelerare la comunicazione tra CPU e GPU è diventata essenziale anche in ambito professionale e consumer, oltre che per database, virtualizzazione, AI e workload enterprise ad alta intensità di I/O.
Dentro questa evoluzione si inserisce il lavoro di PCI-SIG, il consorzio che sviluppa lo standard PCI Express. Il gruppo ha confermato che PCIe 8.0 resta sulla roadmap prevista per il 2028 e che la specifica Draft 0.5 è già disponibile. La nuova revisione punta a 256 GT/s e a una banda teorica bidirezionale di 1 TB/s in configurazione x16. Numeri che, almeno sulla carta, permetteranno agli SSD NVMe di superare abbondantemente quota 100 GB/s.
Da bus per GPU a infrastruttura universale ad alta velocità
All’inizio degli anni 2000 PCI Express sostituì progressivamente AGP e PCI tradizionale. L’obiettivo principale riguardava la grafica 3D: le GPU iniziavano a trasferire enormi quantità di dati e serviva un collegamento seriale molto più veloce rispetto ai vecchi bus paralleli.
La vera forza di PCI Express, però, non era soltanto la velocità. Il protocollo introduceva un’architettura scalabile basata su lane indipendenti: una periferica poteva usare una singola lane x1 oppure sedici linee simultanee x16. Ogni nuova generazione raddoppiava quasi sempre la banda disponibile mantenendo compatibilità retroattiva.
Per diverso tempo il vantaggio rimase soprattutto nel mondo GPU: gli hard disk meccanici non avevano bisogno di throughput elevatissimi; persino SATA II bastava nella maggior parte degli scenari. L’arrivo delle memorie NAND flash e degli SSD moderni ha però ribaltato completamente il quadro.
Il protocollo AHCI, progettato ai tempi dei dischi magnetici, iniziava a rappresentare un collo di bottiglia evidente. Ecco perché nacque NVMe, un protocollo sviluppato specificamente per SSD collegati direttamente al bus PCIe: ridurre la latenza e aumentare il parallelismo diventava molto più semplice.
Anche lato software, ad esempio, Microsoft sta iniziando a rimuovere le limitazioni di un tempo sostituendo lo storico layer SCSI con un driver NVMe aggiornato e molto più performante sulle unità PCIe 5.0. Al momento non è ancora supportato ufficialmente, tanto che l’azienda di Redmond ne ha disabilitato l’attivazione ma la strada per il futuro è già segnata.
PCIe 8.0 spinge la banda a livelli da supercomputer
La futura revisione PCIe 8.0 continua una progressione ormai costante. PCIe 5.0 arriva a 32 GT/s; PCIe 6.0 raddoppia a 64 GT/s; PCIe 7.0 sale a 128 GT/s. PCIe 8.0 porterà il collegamento a 256 GT/s.
La sigla GT/s indica “giga transfers per second“, cioè miliardi di trasferimenti al secondo effettuati su ogni singola lane PCIe. Non corrisponde direttamente ai gigabit al secondo perché entrano in gioco codifica del segnale, overhead del protocollo e ampiezza del collegamento.
Come evidenziato in precedenza, con una configurazione x16 si arriverà teoricamente a 1 TB/s bidirezionale; anche una singola lane x1 raggiungerà circa 64 GB/s. Per gli SSD NVMe questo significa throughput sequenziali superiori ai 120.000 MB/s nei modelli più estremi.
Va detto però che i numeri grezzi raccontano solo una parte della storia. A queste velocità diventa molto più difficile mantenere stabilità elettrica, integrità del segnale e consumi accettabili. PCI-SIG infatti continua a lavorare su affidabilità, riduzione della latenza e contenimento energetico.
Non è un dettaglio secondario. Già oggi molti SSD PCIe 5.0 richiedono dissipatori massicci tanto che alcuni controller enterprise superano facilmente temperature operative molto elevate sotto carico intenso.
Perché PCIe 8.0 interessa soprattutto AI e data center
Nel mercato desktop difficilmente serviranno presto velocità di questo tipo. Un videogioco moderno o un sistema operativo non saturano nemmeno PCIe 5.0 nella maggior parte dei casi.
La situazione cambia radicalmente nei data center AI. Modelli linguistici di grandi dimensioni, training distribuito e sistemi HPC movimentano quantità enormi di dati tra GPU, CPU, memoria condivisa e storage.
Un cluster AI moderno può utilizzare decine o centinaia di acceleratori collegati contemporaneamente: quando migliaia di chip tensor sono sincronizzati in tempo reale, anche i collegamenti PCIe 5.0 iniziano a mostrare limiti concreti. Non sorprende: schede di rete 800 GbE e future infrastrutture 1,6 TbE richiedono una banda interna enorme.
Il collo di bottiglia non riguarda più soltanto la potenza computazionale, infatti. Oggi conta tantissimo quanto velocemente i dati riescono a muoversi tra acceleratori, memoria e storage.
PCI-SIG ha anche confermato di star valutando nuove tecnologie di connessione. Non esistono ancora dettagli pubblici definitivi, ma il motivo appare evidente: il classico slot PCIe in rame inizia a raggiungere limiti fisici molto difficili da superare. A 256 GT/s problemi come attenuazione del segnale, interferenze e crosstalk diventano molto più aggressivi; anche la lunghezza delle piste sulla motherboard può influenzare sensibilmente la qualità del collegamento.
Per questo motivo il settore sta esplorando connettori differenti, materiali migliori e persino collegamenti ottici in alcune infrastrutture HPC. Non significa che il classico slot x16 sparirà subito dai PC desktop; anzi, PCI-SIG continua a considerare la compatibilità retroattiva una priorità assoluta.
Quando arriveranno i primi dispositivi reali PCIe 8.0
La disponibilità della Draft 0.5 non significa che l’arrivo di hardware PCIe 8.0 sia imminente: il processo di standardizzazione richiede ancora diversi passaggi tecnici prima della release finale prevista nel 2028.
Dopo la pubblicazione definitiva serviranno controller maturi, firmware stabili e validazioni elettriche molto rigorose. Storicamente il mercato consumer adotta nuove revisioni PCIe parecchi anni dopo i data center.
PCI Express, comunque, non è più soltanto – da tanto tempo ormai – il bus delle schede video. È diventato l’elemento centrale attorno a cui ruotano storage, acceleratori AI, networking e calcolo ad alte prestazioni.