La professoressa Bianca Schroeder dell’Università di Toronto e Raghav Lagisetty e Arif Merchant di Google hanno rilasciato i risultati di uno studio condotto per sei anni su milioni di dischi a stato solido per testarne la stabilità sia in ambito consumer, sia (e soprattutto) all’interno dei data center, ambiente che sta diventando sempre più SSD oriented. La ricerca si è concentrata nello specifico su dieci modelli di SSD in modo da vagliarne le principali tecnologie di memoria, ovvero SLC (Single Level Cell), eMLC e MLC (Multi Level Cell).

Dallo studio, intitolato Flash Reliability in Production: The Expected and the Unexpected, sono emerse tre interessanti conclusioni. La prima è che i dischi a stato solido di fascia alta per il settore enterprise con tecnologia SLC non sono più affidabili dei modelli MLC. Il loro costo maggiore infatti non è determinato dal grado di affidabilità, bensì dalla presenza di maggior spazio allocato per rimpiazzare i blocchi non funzionanti quando si presentano problemi di usura

La seconda conclusione è che l’affidabilità dipende non tanto dall’utilizzo che si fa di un SSD ma dalla sua età, mentre il terzo aspetto importante è che una percentuale degli SSD esaminati compresa tra il 30% e l’80% ha sviluppato almeno un blocco malfunzionante, mentre tra il 2% e il 7% ha messo in mostra un chip diventato inutilizzabile dopo quattro anno dall’installazione.

Lo studio ha anche rilevato come l’Uncorrectable Bit Error Rate (UBER) non sia un dato importante a cui fare attenzione quando si leggono le specifiche di un SSD, mentre si è scoperto che Raw Bit Error Rate (RBER) cresce più lentamente di quanto si pensava con l’usura.

In generale però gli SSD, benché abbiano meno probabilità di guastarsi e di diventare inutilizzabili rispetto agli Hard Disk tradizionali, hanno più probabilità di perdere i dati e per questo il backup con le unità a stato solido diventa ancora più importante.