Le unità SSD sono diventate lo standard dominante per l’archiviazione dei dati, grazie a velocità elevate, consumi contenuti e un’affidabilità operativa superiore rispetto agli hard disk meccanici. Il volume delle operazioni di scrittura sulle unità a stato solido non preoccupa più, da tempo, sebbene tanti sedicenti esperti consiglino ancora oggi di disattivare servizi che costituiscono la spina dorsale di Windows e Linux. In un vecchio nostro articolo su come ottimizzare gli SSD in Windows abbiamo parlato di verità e falsi miti.
Dicevamo infatti che ormai la stragrande maggioranza degli SSD è entrata a far parte del cosiddetto “petabyte club”, un’espressione coniata per evidenziare come tutte le unità prese in esame abbiano permesso la scrittura di un’enorme mole di dati prima di iniziare a presentare malfunzionamenti: fino ad un petabyte, pari a 1.000 terabyte. È evidente che questo dato non può far paura per professionisti e utenti privati. Inutile disabilitare l’indicizzazione in Windows, la funzionalità SuperFetch, spostare il file di paginazione (dove? magari su un lentissimo hard disk?), disattivare l’ibernazione, il registro degli eventi, i log (!), se si utilizza l’unità SSD in condizioni estreme (i.e. alte temperature).
Su un SSD moderno le scritture generate da queste funzioni standard di Windows sono trascurabili rispetto alla capacità di endurance (spesso decine o centinaia di TBW, Terabytes Written). Parlando del sistema Microsoft, Windows già sa quando il supporto di memorizzazione è un SSD e si comporta di conseguenza, come ben spiegato da Scott Hanselman.
SSD e perdita dei dati a unità spenta
Una caratteristica intrinseca della tecnologia NAND, alla base del funzionamento dei moderni SSD, continua invece a emergere come punto critico: la possibilità di perdere gradualmente i dati quando l’unità rimane scollegata dall’alimentazione per lunghi periodi di tempo.
Questo fenomeno — noto da anni nel mondo enterprise e del quale abbiamo parlato più volte in passato (uno studio di aprile 2025, seppur svolto su un campione molto limitato di unità, confermava il problema) — sta iniziando a emergere con forza anche tra gli utenti consumer, spesso ignari delle reali limitazioni di conservazione dei dati delle memorie flash moderne, in particolare TLC e soprattutto QLC (vedere più avanti).
La causa fisica
Ogni cella di memoria NAND conserva i bit immagazzinando elettroni in una struttura isolata, tipicamente un floating gate o una charge trap. Tale carica elettrica non è stabile nel tempo: a temperatura ambiente tende a dissiparsi gradualmente, con una velocità che aumenta con l’incremento termico.
Il fenomeno è intrinseco rispetto alla tecnologia: la memoria flash, alla base del funzionamento delle unità SSD, è un vasto array di micro-condensatori. Nessun condensatore mantiene indefinitamente la carica. La stabilità della carica (retention) diminuisce progressivamente, accelerando se il chip è sottoposto a temperature elevate e peggiorando man mano che trascorre il tempo.
La vulnerabilità alla perdita di dati in condizioni di mancata alimentazione, aumenta all’aumentare della densità di memorizzazione per cella:
- SLC (Single-Level Cell, 1 bit per cella): ampio margine di tensione, conservazione dati molto elevata.
- MLC (Multi-Level Cell, 2 bit per cella): margine ridotto, conservazione dati più contenuta.
- TLC (Triple-Level Cell, 3 bit per cella): margine minimo, conservazione dati critica.
- QLC (Quad-Level Cell, 4 bit per cella): margine estremamente limitato, conservazione dati più ridotta in condizioni di disalimentazione.
Nell’articolo in cui spieghiamo come funzionano davvero gli SSD, chiariamo le differenze dal punto di vista tecnico tra unità SLC, MLC, TLC e QLC.
Un commento rilasciato da un operatore del settore evidenzia la drastica evoluzione:
In passato, per SLC, 100.000 cicli di scrittura garantivano una conservazione dei dati di circa 10 anni. Oggi, per QLC, la stessa affidabilità si esaurisce in pochi mesi dopo meno di 1.000 cicli di scrittura.
Perché gli SSD “invecchiano” anche se non usati
Il termine “retention” è largamente utilizzato per riferirsi alla capacità di una cella di memoria NAND di mantenere lo stato logico (i dati) senza alimentazione elettrica per un determinato intervallo di tempo. La retention diminuisce significativamente col trascorrere del tempo: se la carica decade oltre una certa soglia, la cella restituisce valori errati.
Un’unità QLC nuova può conservare i dati per anni, una volta lasciata scollegata dall’alimentazione. Un’unità QLC che ormai sente il peso del tempo, potrebbe evidenziare perdite di dati già dopo pochi mesi di mancata alimentazione elettrica.
Come ricordato in precedenza, inoltre, la temperatura gioca un ruolo chiave: la conservazione dell’unità SSD a temperature elevate ne accelera molto il decadimento.
Non a caso, gli standard minimi JEDEC (pagina 26) separano “client” ed “enterprise”:
- Client SSD: 1 anno di retention in condizioni di power-off
- Enterprise SSD: solo 3 mesi, perché progettati per essere sempre alimentati
“Accendere l’SSD non basta”: serve leggere tutti i dati
C’è però un’informazione preziosa, allo stesso tempo davvero poco conosciuta. Alimentare l’unità SSD non è sufficiente per risolvere il problema di un supporto lasciato disalimentato da un po’ di tempo. Bisogna leggere ogni bit periodicamente affinché il controller rilevi i “bit deboli” e li riscriva.
Molti controller eseguono un background refresh solo quando rilevano un errore di lettura (correctable ECC), mentre altri limitano il refresh per motivi di consumo energetico.
Ciò implica che connettere un SSD una volta all’anno e copiarvi un file NON significa che i dati esistenti saranno verificati e messi in sicurezza. Serve una lettura completa dell’unità: ad esempio con il comando dd if=/dev/sdX of=/dev/null su Linux oppure uno “scrub” sui file system ZFS/Btrfs.
Firmware e “drive che si suicidano”: un aspetto poco noto
Diversi esperti evidenziato un problema grave: se il controller SSD interpreta alcuni blocchi come troppo danneggiati, può decidere di marcare il drive come danneggiato (“FAILED”), rifiutare di leggere qualsiasi settore, rendere l’unità completamente inaccessibile.
L’SSD è una scatola nera: se il firmware decide che un blocco è troppo corrotto, può smettere di restituire TUTTO il contenuto. A quel punto diventa inutilizzabile.
L’unico modo per recuperare i dati sarebbe dissaldare le memorie NAND, leggerle con hardware dedicato e ricostruire manualmente la logica di mapping. Operazioni generalmente possibili solo all’interno di laboratori specializzati.
C’è poi una tendenza chiara: SSD SLC e MLC del 2008-2013 continuano a funzionare perfettamente ancora oggi; SSD consumer dal 2014 in avanti mostrano fallimenti molto più frequenti.
Il motivo è riconducibile alla corsa alla densità: celle più piccole, più bit per cella, firmware molto più complesso, utilizzo massiccio di LDPC e ricalibrazioni per compensare problemi fisici. Negli SSD moderni, dove le celle sono molto dense e delicate, si usa l’algoritmo LDPC (Low-Density Parity-Check) per correggere gli errori di lettura dovuti alla perdita di carica, e si fanno ricalibrazioni o refresh dei dati per riscrivere le celle prima che diventino instabili, compensando così i limiti fisici della memoria NAND.
Un problema che riguarda l’archiviazione, non l’uso quotidiano
È importante distinguere tra:
- SSD come storage operativo. Nessun problema, gli SSD mantengono la carica e la riscrivono costantemente.
- SSD come archivio “da cassetto”. Rischio reale di perdita dei dati senza alimentazione (le tempistiche sono molto variabili).
La maggior parte degli utenti domestici non spegne un PC per periodi significativi, quindi non percepisce il rischio. Il problema si manifesta soprattutto in questi scenari:
- Fotografi, videomaker e creativi che archiviano progetti complessi.
- Ricercatori e professionisti che conservano dataset o lavori conclusi.
- Liberi professionisti che mantengono copie offline per evitare attacchi ransomware.
- Chi ritiene che “un SSD duri per sempre”.
Note finali
La regola del backup 3-2-1 nasce dall’assunto che nessun supporto singola può garantire la conservazione del dato nel lungo periodo. Ciò vale ancora di più per gli SSD, che possono degradare i dati anche quando sono spenti, complici l’usura delle celle NAND, i limiti del firmware e i meccanismi di retention.
Il modello richiede tre copie dei dati (compreso l’originale), due tipi di supporto differenti proprio per evitare un “single point of failure” e una copia offsite. Quando si parla di unità SSD si possono abbinare hard disk e supporti cloud: usare solo SSD non conta come due supporti diversi.
La copia fisicamente lontana dai dispositivi originali può risiedere sul cloud, su un datacenter remoto, in una filiale geograficamente distante, in un disco conservato in altro edificio, in una cassaforte esterna e così via. Si tratta di un’attenzione che serve per proteggere i dati da eventi come incendio, furto, alluvione, guasto elettrico, attacco ransomware.