Apple riduce la memoria del Mac Studio tra AI e problemi di forniture

Apple elimina l'opzione da 128 GB per Mac Studio mentre cresce la pressione sulla supply chain AI e memoria avanzata.
Apple riduce la memoria del Mac Studio tra AI e problemi di forniture

Apple ha ridotto silenziosamente la configurazione massima di memoria disponibile per Mac Studio, eliminando l’opzione da 128 GB in alcuni mercati e lasciando come limite superiore la variante da 96 GB.

La modifica, attuata senza annunci ufficiali nelle pagine di configurazione del prodotto, arriva appena due mesi dopo la scomparsa della versione da 512 GB destinata ai modelli più costosi. La decisione si inserisce in una fase particolare del mercato hardware AI, dove la crescita delle applicazioni locali basate su modelli linguistici sta aumentando rapidamente la domanda di memoria ad alta banda.

I sistemi Apple Silicon, grazie all’architettura Unified Memory e all’elevata bandwidth dei package M-series, sono diventati piattaforme molto richieste per eseguire modelli AI in locale. La domanda di package LPDDR5X ad alta densità e di substrate avanzati CoWoS continua a esercitare pressione sull’intera filiera semiconduttori, con aziende come NVIDIA, AMD e Apple che competono per la stessa capacità produttiva presso TSMC e i principali fornitori di memoria. Quando aumenta questa pressione, i produttori tendono a privilegiare le configurazioni più redditizie o quelle con maggiore disponibilità di componenti.

La modifica riguarda specificamente i modelli Mac Studio basati su chip M4 Max. Nei sistemi Apple Silicon la memoria LPDDR viene integrata nel package del SoC tramite architettura unified: CPU, GPU e Neural Engine condividono lo stesso pool memoria ad alta velocità, il che migliora efficienza energetica e bandwidth ma rende anche più complessa la gestione delle configurazioni ad alta capacità.

Unified Memory, AI locale e colli di bottiglia produttivi

L’interesse crescente verso configurazioni ad alta memoria deriva soprattutto dall’esecuzione locale dei modelli AI. I moderni LLM richiedono enormi quantità di RAM per gestire pesi, cache KV e inferenza in tempo reale.

L’architettura Unified Memory offre un vantaggio particolare: la GPU integrata può accedere all’intera memoria disponibile senza duplicazione dei dati tra RAM e VRAM dedicate. Un Mac Studio con 128 GB poteva allocare quantità molto elevate ai modelli AI, risultando competitivo nell’inferenza locale di versioni quantizzate di Llama, Mixtral, DeepSeek o modelli multimodali avanzati.

Tecnologie come CoWoS e packaging 2.5D sono diventate fondamentali per GPU AI, acceleratori HPC e SoC ad alta integrazione. TSMC continua a espandere la capacità produttiva, ma la domanda cresce più rapidamente dell’offerta disponibile: NVIDIA ha già dichiarato più volte che il packaging rappresenta uno dei principali limiti per le GPU AI di fascia alta.

Con la crescita del mercato AI, le stesse risorse produttive vengono oggi assorbite sempre più frequentemente dagli acceleratori datacenter, saturando la capacità disponibile presso i fornitori. La rimozione della configurazione da 128 GB segue del resto un cambiamento ancora più significativo avvenuto all’inizio del 2026, ovvero la sparizione dell’opzione da 512 GB sui modelli top di gamma, una configurazione che richiedeva stack LPDDR ad altissima densità con resa produttiva complessa e costi elevati.

Perché 96 GB restano rilevanti e cosa cambia per gli utenti

La configurazione da 96 GB rimane comunque elevata rispetto alla maggior parte dei desktop consumer. Per editing 8K, sviluppo software, virtualizzazione e inferenza AI media la capacità resta più che sufficiente, anche grazie a quantizzazione 4-bit, offloading dinamico e tecniche di compressione della cache. Le limitazioni emergono soprattutto con modelli superiori ai 70 miliardi di parametri o con workload multimodali complessi che richiedono grandi finestre contestuali.

Il problema principale per gli utenti professionali riguarda però la longevità dell’investimento. Nei sistemi Apple Silicon la memoria non è aggiornabile in un momento successivo: scegliere una configurazione inferiore significa accettare limiti hardware permanenti. Una variabile non trascurabile in un segmento di mercato dove le richieste computazionali crescono con grande rapidità.

Workstation AI e pressione sulla supply chain

La crescita dell’AI locale sta modificando rapidamente il mercato workstation.

Fino a pochi anni fa configurazioni desktop con oltre 64 GB RAM erano considerate nicchie professionali molto ristrette; oggi sviluppatori AI, creator e ricercatori cercano sistemi capaci di eseguire modelli linguistici sempre più grandi direttamente in locale.

Apple si trova in una posizione particolare: i chip M-series offrono consumi ridotti, ottima bandwidth e integrazione software avanzata tramite Metal e Core ML, ma l’azienda compete in modo indiretto contro workstation NVIDIA CUDA-based che dominano ancora gran parte del mercato AI professionale.

Ti consigliamo anche

Link copiato negli appunti