IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les SSD non alimentés dans votre tiroir perdent lentement leurs données : bien que les SSD dominent l'informatique active, ils présentent un risque important pour le stockage d'archives à long terme

Le , par Jade Emy

4PARTAGES

5  0 
Les SSD non alimentés dans votre tiroir perdent lentement leurs données : bien que les SSD dominent l'informatique active, ils présentent un risque important pour le stockage d'archives à long terme.

Si les SSD dominent l'informatique active, ils présentent un risque important pour le stockage d'archives à long terme. Cette analyse approfondie explore la physique des fuites d'électrons dans la mémoire flash NAND, en analysant les normes JEDEC et les contraintes techniques qui font que les SSD hors tension perdent des données au fil du temps, en les comparant à la stabilité des supports magnétiques.

Un disque SSD (Solid State Drive) est un type de périphérique de stockage à semi-conducteurs qui utilise des circuits intégrés pour stocker des données de manière permanente. Les SSD s'appuient sur une mémoire non volatile, généralement une mémoire flash NAND, pour stocker les données dans des cellules mémoire. Les performances et l'endurance des SSD varient en fonction du nombre de bits stockés par cellule, allant des cellules à niveau unique (SLC) très performantes aux cellules à quatre niveaux (QLC) plus abordables mais plus lentes. Contrairement aux disques durs traditionnels (HDD), les SSD ne comportent aucune pièce mobile, ce qui leur permet d'offrir des vitesses d'accès aux données plus rapides, une latence réduite, une résistance accrue aux chocs physiques, une consommation d'énergie moindre et un fonctionnement silencieux.

Toutefois, hors tension et dans certaines situations de conservation, ces disques présentent un risque réel de perte de données des utilisateurs, a révélé Alvin Cox, président du fabricant de disques Seagate. Dans son rapport publié en 2015 sur le site web de JEDEC, Alvin explique qu’un SSD hors tension peut causer la perte des données stockées ; et parfois après que le disque ait passé seulement quelques jours sans être alimenté. En cas de non alimentation, une perte de données peut résulter de plusieurs facteurs y compris la durée d’utilisation et la température du lieu de conservation du disque.

Récemment, un rapport révèle qu'une crise silencieuse se profile dans les coffres-forts et les installations de stockage à froid des consommateurs et des services informatiques des entreprises. Comme le détaille une récente analyse technique de XDA Developers, les propriétés physiques mêmes qui permettent aux SSD de fonctionner à des vitesses fulgurantes les rendent fondamentalement inadaptés au stockage d'archives à long terme sans alimentation électrique. Contrairement aux plateaux magnétiques d'un disque dur ou à l'oxyde ferrique d'une bande LTO, un SSD n'est pas un coffre-fort statique ; c'est un récipient qui fuit, rempli d'électrons, qui nécessite une vigilance constante pour conserver son contenu.


L'idée fausse selon laquelle le numérique est permanent trouve son origine dans l'expérience utilisateur quotidienne, où les données semblent immuables. Pourtant, pour les initiés du secteur et les ingénieurs en matériel informatique, la réalité est régie par les lois immuables de la thermodynamique. Lorsqu'un SSD est déconnecté d'une source d'alimentation, il entame un processus lent et invisible de dégradation des données appelé « bit rot » ou, plus techniquement, fuite de charge. Il ne s'agit pas d'un dysfonctionnement, mais d'une caractéristique inhérente à la mémoire flash NAND. À mesure que les entreprises retirent de plus en plus les anciens SSD pour les stocker à froid à des fins de conformité ou de sauvegarde, elles placent peut-être sans le savoir leur propriété intellectuelle critique sur un support qui redevient lentement vierge.

Pour comprendre le risque, il faut examiner l'architecture microscopique du support de stockage. La mémoire flash NAND stocke les données en piégeant des électrons à l'intérieur d'une « grille flottante » dans un transistor. La présence ou l'absence de charge (et, dans les disques modernes, le niveau de tension spécifique de cette charge) détermine la valeur binaire des données. XDA Developers note que ces électrons sont maintenus en place par des couches isolantes microscopiques. Au fil du temps, l'effet tunnel quantique permet aux électrons de s'échapper à travers ces barrières isolantes, provoquant une dérive du niveau de tension de la cellule. Si la tension chute en dessous d'un certain seuil, le contrôleur ne peut plus distinguer un zéro d'un un, ce qui entraîne une corruption des données.

Cette fuite est exacerbée par l'usure du disque pendant sa durée de vie active. Chaque fois que des données sont écrites sur un SSD, le disque doit envoyer une haute tension à travers la cellule pour piéger les électrons, un processus qui dégrade légèrement la couche d'oxyde isolante. À mesure qu'un disque approche de son nombre maximal de cycles de programmation/effacement (P/E), l'isolation devient plus poreuse, ce qui accélère la fuite de charge une fois l'alimentation coupée. Par conséquent, un disque neuf peut conserver des données pendant des années sans alimentation, tandis qu'un disque proche de la fin de sa durée de vie en écriture peut subir une perte de données catastrophique en une fraction de ce temps.

La norme JEDEC et la réalité des consommateurs

L'industrie des semi-conducteurs est bien consciente de ces limites physiques et a établi des normes pour gérer les attentes, bien que ces spécifications soient rarement communiquées à l'utilisateur final. L'organisme de réglementation, JEDEC, fixe les critères de référence pour la fiabilité des SSD dans le cadre de la norme JESD218. Selon ces spécifications, un SSD grand public éteint à 30 °C (86 °F) devrait conserver les données pendant environ un an. Cela offre une marge raisonnable pour l'utilisateur moyen d'un ordinateur portable qui pourrait laisser son appareil dans un tiroir pendant quelques mois, mais cela est loin de répondre aux exigences d'archivage sur plusieurs décennies des dossiers juridiques ou médicaux.

Il est important de noter que ces taux de conservation dépendent de la température à laquelle le disque fonctionnait avant d'être débranché et de la température à laquelle il est stocké. XDA Developers souligne une nuance critique dans les spécifications JEDEC : la période de conservation est fortement influencée par la température « active ». Un disque qui chauffe pendant son utilisation et qui est ensuite stocké dans un environnement chaud perdra ses données beaucoup plus rapidement qu'un disque conservé au frais. La physique de l'équation d'Arrhenius stipule que pour chaque augmentation de 10 °C de la température, la vitesse de réaction chimique (dans ce cas, la fuite d'électrons) double environ, réduisant de moitié la durée de conservation des données.

Le fossé entre les entreprises et le mythe des sept jours

La situation devient plus précaire dans le secteur des entreprises. Les SSD d'entreprise sont conçus pour offrir des performances et une endurance optimales, souvent au détriment de la conservation hors alimentation, afin d'atteindre des vitesses d'écriture et des capacités plus élevées. Selon les normes JEDEC, un disque d'entreprise n'est tenu de conserver les données que pendant trois mois à 40 °C lorsqu'il est hors tension. Cela crée un écart dangereux entre la politique informatique et la réalité matérielle : un administrateur de serveur qui retire une matrice RAID de SSD et les place sur une étagère pour un audit semestriel peut revenir et constater une corruption importante des données.

Cette crainte s'est concrétisée dans une présentation largement diffusée mais souvent mal comprise d'Alvin Cox, ingénieur senior chez Seagate, qui est fréquemment citée dans les analyses approfondies sur le sujet. La présentation suggérait que dans le pire des cas, c'est-à-dire lorsqu'un disque a dépassé son endurance nominale et est stocké dans un environnement à forte chaleur, la conservation des données pouvait chuter à sept jours seulement. Bien que XDA Developers précise qu'il s'agit d'un scénario extrême impliquant des disques poussés au-delà de leurs limites, cela rappelle de manière frappante que les SSD sont des dispositifs volatils qui dépendent du potentiel électrique, et non d'une altération physique du matériau, pour stocker des informations.

Le dilemme de la densité : du SLC au QLC

Le problème de la conservation des données est aggravé par la recherche incessante de densités de stockage plus élevées par l'industrie. Les premiers SSD utilisaient la technologie SLC (Single Level Cell), dans laquelle chaque cellule contenait un bit de données (chargé ou non chargé). Cela offrait une large marge d'erreur ; une quantité importante de charge pouvait s'échapper avant que l'état ne devienne ambigu. Cependant, afin de réduire les coûts et d'augmenter la capacité, les fabricants sont passés à des architectures MLC (Multi-Level Cell), TLC (Triple Level Cell) et désormais QLC (Quad Level Cell). Les disques QLC stockent quatre bits par cellule, ce qui oblige le contrôleur à distinguer 16 niveaux de tension distincts au sein du même piège à électrons microscopique.

À mesure que les fenêtres de tension entre ces états se réduisent, la tolérance à la fuite d'électrons s'évapore. Un disque QLC ne nécessite qu'une perte de charge infime pour que la tension d'une cellule passe d'un état à un autre, corrompant ainsi les données. Si les codes de correction d'erreurs (ECC) modernes sont suffisamment sophistiqués pour gérer les dérives mineures, ils ont toutefois un point de rupture. Cela fait des disques QLC grand public à haute capacité, souvent commercialisés comme des solutions de sauvegarde abordables, les candidats statistiquement les plus vulnérables à la détérioration des bits dans les scénarios de stockage à froid.

Atténuation du micrologiciel et états d'alimentation

Il est important de faire la distinction entre les états alimentés et non alimentés, car le contrôleur SSD joue un rôle actif dans la préservation des données lorsque l'électricité est disponible. Lorsqu'un SSD est sous tension, le micrologiciel effectue des tâches de maintenance en arrière-plan, notamment le « nettoyage ». Le disque lit périodiquement les données, vérifie les erreurs de bits ou les dérives de tension et réécrit les cellules faibles pour rafraîchir leur charge. Cette gestion active réinitialise efficacement l'horloge de rétention, ce qui rend les SSD très fiables tant qu'ils font partie d'un système actif.

Cependant, cette dépendance à la gestion active du micrologiciel est précisément la raison pour laquelle le stockage à froid est le talon d'Achille de la mémoire flash. Sans alimentation, le contrôleur est inactif. Il n'y a pas de nettoyage, pas de correction d'erreurs et pas de rafraîchissement de la tension. Le disque devient une victime passive de l'entropie. Comme l'indiquent les rapports des spécialistes en récupération de données cités dans les débats généraux du secteur, tenter de mettre sous tension un SSD fortement dégradé après des années d'inactivité peut parfois déclencher le verrouillage du contrôleur en « mode panique » s'il détecte une masse critique d'erreurs ECC pendant la séquence de démarrage, rendant les données inaccessibles même si certaines cellules restent lisibles.


Les arguments économiques en faveur des supports magnétiques

Pour les spécialistes du secteur, les limites techniques des SSD sans alimentation réaffirment la pertinence des supports magnétiques dans la hiérarchie du stockage. Les disques durs (HDD) utilisent la polarité magnétique pour stocker les données sur des plateaux, un état physique nettement plus stable dans le temps qu'une charge électrique piégée. Si les HDD sont exposés à un risque de défaillance mécanique, le flux magnétique sur le plateau ne se dissipe pas en quelques mois. Pour un véritable archivage à long terme, la bande magnétique LTO (Linear Tape-Open) reste la référence, offrant une durée de conservation pouvant atteindre 30 ans sans alimentation, à condition que les conditions environnementales soient contrôlées.

L'analyse coûts-avantages favorise également largement les supports magnétiques pour le stockage à froid. Le prix par téraoctet des SSD, bien qu'en baisse, reste élevé en raison de leur vitesse, un critère qui n'a aucune importance pour les données stockées dans un coffre-fort. L'utilisation de mémoires flash hautes performances pour l'archivage statique est non seulement inefficace sur le plan économique, mais aussi, comme le suggère la physique, techniquement négligente. L'attrait du « centre de données entièrement flash » se heurte à un obstacle de taille lorsque les politiques de conservation des données dépassent le cycle de vie actif du matériel.

Implications stratégiques pour la gouvernance des données

Les implications pour les directeurs informatiques et les architectes de données sont claires : le support de stockage doit correspondre au cycle de vie des données. Les SSD sont excellents pour les données de niveau 0 et 1, c'est-à-dire les données chaudes, actives et constamment consultées. Cependant, les développeurs XDA et les organismes de normalisation industrielle déconseillent de les utiliser pour le stockage « froid » de niveau 3. Si les SSD doivent être utilisés pour des sauvegardes hors ligne, peut-être en raison de leur résistance aux chocs physiques pendant le transport, ils doivent être traités comme des actifs nécessitant beaucoup d'entretien. Une politique stricte consistant à mettre ces disques sous tension au moins une ou deux fois par an est nécessaire pour permettre au micrologiciel de rafraîchir les cellules NAND.

Pourtant, en 2022, la société de sauvegarde et de stockage en cloud Backblaze a publié des données comparant la fiabilité à long terme des disques de stockage à l'état solide et des disques durs rotatifs traditionnels dans son centre de données. Sur la base des données recueillies depuis que l'entreprise a commencé à utiliser des SSD comme lecteurs de démarrage fin 2018, l'évangéliste du stockage en cloud de Backblaze, Andy Klein, a publié un rapport montrant que les SSD de l'entreprise tombent en panne à un taux beaucoup plus faible que ses disques durs à mesure que les disques vieillissent. Il semble donc que les SSD seraient plus fiables sur le long terme que les disques durs à condition qu'ils ne soit pas hors tension.

En fin de compte, le passage au stockage SSD nécessite un changement de mentalité, passant du « stockage en tant que produit » au « stockage en tant que service », même pour les supports hors ligne. L'époque où l'on écrivait des données sur un disque et où on l'enterrait dans une mine de sel pendant une décennie est révolue, du moins en ce qui concerne la technologie flash. Les électrons qui constituent notre histoire numérique sont agités ; sans apport constant d'énergie ou sans la stabilité des substrats magnétiques, ils finiront inévitablement par disparaître, emportant avec eux des données critiques.

Source : XDA Developers

Et vous ?

Pensez-vous que ce rapport est crédible ou pertinent ?
Quel est votre avis sur le sujet ?

Voir aussi :

Seagate affirme que les disques durs rotatifs battent les disques SSD en termes d'empreinte carbone et que l'utilisation de l'énergie est une préoccupation majeure pour plus de la moitié des chefs d'entreprise

Les disques SSD sont devenus rapides, sauf dans le secteur du cloud, la crainte de perturber les coûts dans le cloud suscite des inquiétudes sur l'innovation et l'optimisation des performances

Une étude portant sur 17 155 disques durs défectueux révèle que les disques durs tombent généralement en panne en moins de 3 ans, les disques durs de faible capacité durent plus longtemps
Vous avez lu gratuitement 585 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 26/11/2025 à 19:33
Et oui, c'est le devenir de notre civilisation numérique si supérieure à toutes les autres de l'histoire...

Notre civilisation ne laissera aucune trace dans l'histoire de la terre à l'inverse des civilisations primitives comme Babylone, l'Egypte des pharaons ou plus proche de nous les Incas... Eux, ils gravaient dans la pierre! Est-ce que les archéologues dans 1 000 ou 2 000 ans trouveront dans une fouille un disque dur encore lisible, SSD ou non?
0  0 
Avatar de matmoul
Membre à l'essai https://www.developpez.com
Le 26/11/2025 à 19:45
Quid des M-Disk, on n'en entend pas beaucoup parler...
https://fr.wikipedia.org/wiki/M-DISC
0  0