Durante l’evento Advancing AI, AMD ha anticipato i primi dettagli tecnici della futura generazione di processori EPYC Venice, basata sull’architettura Zen 6. Attesi per il 2026, questi chip server promettono un salto generazionale su tutti i fronti: fino a 256 core per socket, una larghezza di banda per socket raddoppiata a 1,6 TB/s e connettività di nuova generazione, il tutto su un nodo produttivo TSMC a 2 nm.
EPYC Venice: più core, più prestazioni, più efficienza
La famiglia EPYC Venice rappresenta la sesta generazione della linea server di AMD e incrementa il numero massimo di core per socket del 33% rispetto alla generazione attuale EPYC Turin, portandoli da 192 a 256 core Zen 6c. Secondo AMD, ciò consentirà di raggiungere un aumento fino al 70% nelle prestazioni di calcolo, pur non specificando i carichi di lavoro utilizzati per questa stima.
I core saranno probabilmente divisi tra core Zen 6 e core Zen 6c, più compatti ed efficienti, seguendo una strategia simile a quella già vista con EPYC Bergamo e i core Zen 4c. AMD sfrutterà inoltre il nuovo socket SP7, progettato per supportare configurazioni a più alto consumo energetico (oltre 700 W), più die di calcolo (CCD) e un maggiore numero di canali di memoria.
Banda passante a livelli mai visti: 1,6 TB/s per socket
Uno degli aspetti più impressionanti di Venice è l’aumento drastico della larghezza di banda sul versante della memoria, che passa da 614 GB/s (EPYC Turin) a 1,6 TB/s. Un tale incremento sarà essenziale per alimentare efficacemente 256 core ad alte prestazioni, ed è reso possibile grazie all’adozione di moduli di memoria avanzati come MR-DIMM (Multiplexed Rank DIMM) e MCR-DIMM (Multi-Channel DRAM Module).
Questa evoluzione rappresenta un balzo significativo nella capacità di gestire carichi di lavoro ad alta densità di dati, come quelli dell’intelligenza artificiale, all’analytics e al cloud computing.
PCIe 6.0 e doppia larghezza di banda CPU-GPU
AMD ha annunciato che Venice raddoppierà anche la banda passante tra CPU e GPU, suggerendo chiaramente l’integrazione di PCI Express 6.0. Con una capacità teorica di 128 GB/s in entrambe le direzioni per ciascun link x16, il supporto PCIe 6.0 rappresenta un enorme vantaggio per infrastrutture che utilizzano acceleratori come le future GPU AMD Instinct MI400X, pensate per l’AI e il calcolo eterogeneo.
Con 128 linee PCIe, il throughput complessivo teorico della piattaforma Venice potrebbe superare 1 TB/s di banda aggregata solo sul fronte delle comunicazioni interne.
Nuovo packaging SP7
Il passaggio allo standard SP7 segna una rottura con le generazioni precedenti (SP5), offrendo maggiore scalabilità termica ed elettrica oltre che il supporto a un maggior numero di moduli di memoria e CCD.
Con EPYC Venice, AMD non solo spinge sulle prestazioni computazionali, ma anche migliora efficienza energetica e densità di calcolo per rack, due metriche fondamentali nei data center moderni.
Prospettive e impatto sul mercato server
Con Venice, AMD punta a consolidare la sua posizione nei segmenti hyperscaler, cloud provider e datacenter, offrendo una piattaforma che unisce potenza bruta, un’ampia larghezza di banda e un’efficienza energetica di prim’ordine. L’adozione del nodo TSMC a 2 nm e l’integrazione con l’ecosistema GPU MI400X rendono EPYC Venice uno dei progetti più ambiziosi mai lanciati da AMD in ambito server.
L’arrivo sul mercato è previsto nel corso del 2026, ma la partita è già iniziata. Con Intel che si prepara al lancio dei suoi Xeon Clearwater Forest basati su architettura E-core e nodo Intel 18A, il confronto nei data center del futuro si giocherà su scala nanometrica, ma anche — e soprattutto — in termini di architettura, interconnessioni e memoria.