Commentaires : Western Digital en pourparler de fusion avec KIOXIA pour créer un géant du stockage

Le stockage des données est un des enjeux majeurs du numérique. Une fusion entre Western Digital et KIOXIA permettrait de concurrencer le leader Samsung.

J’ai toujours eu l’habitude d’acheter des HDD NAS Western Digital, Seagate et Toshiba.
Il y a un Seagate sur le PC (en externe) et un Toshiba sur le Mac. Des WD ? j’en ai un paquet en 3’5 et en 2’5 USB.

J’avais été très déçu quand Toshiba avait décidé de ne plus produire d’ordinateur.
C’était une marque mythique.

Maintenant c’est KIOXIA ? C’est pourquoi il faut suivre les news.

1 « J'aime »

« Pour ces questions, la mémoire flash a un atout : elle ne consomme pas d’énergie pour conserver les données. »

Les disques durs magnétiques, opto-magnétiques, les bandes magnétiques, les cd dvd bluray, les disquettes, casettes et autres apparentés, non plus.

Et ne pas oublier, la NAND quand elle est stockée à froid pendant longtemps, perd de l’information par fuite d’électrons (quelques années)… contrairement aux autres sus-citées.

4 « J'aime »

En effet les SSD ne sont pas les candidats idéaux pour le stockage externe sur de très longues périodes !

Un SSD commence à perdre ses données au bout d’une année sans alimentation et s’il est mal conservée (environnement chaud) la durée de rétention diminue fortement.

La durée de rétention officielle des SSD est de 3 mois … évidemment aucun SSD ne perd des données au bout de 3 mois sans alimentation.

C’est valable surtout pour les SSD des particuliers, les SSD professionnels durent beaucoup plus longtemps !

1 « J'aime »

Selon les normes du JEDEC, les 3 mois c’est justement pour les SSD Enterprise, les SSD grand public (« Client ») étant donnés pour 1 an de rétention (mais à 30°, contre 40° pour les 3 mois des SSD Enterprise, sachant que la durée de rétention a tendance à augmenter avec la température en utilisation mais à diminuer avec la température au repos).

Et surtout, ces durées de rétention sont les durées de rétention minimales que le SSD est censé tenir une fois qu’il a atteint sa limite d’usure. Quand la mémoire flash est peu usée, la durée de rétention est trèèèèès largement supérieure, elle dépasse la dizaine d’années (y a qu’à voir les très nombreuses mémoire flash stockant des firmware, qui ne sont jamais réécrites, mais qui durent très longtemps, perso j’ai encore jamais eu un appareil dont le firmware s’est effacé avec le temps…).

Voir explications ici : https://www.jedec.org/sites/default/files/Alvin_Cox%20[Compatibility%20Mode]_0.pdf (pages 25 et 26).

Mais tes appareils étant sous tension régulièrement, le problème ne se pose pas, les puces contenant les firmwares et autres étant « raffraichies » à chaque fois.

Non, il n’y a pas de mécanisme de refresh automatique des puces de mémoire flash sous tension, et surtout pas pour des firmwares (si l’alim est coupée pendant le refresh, plus de firmware : une mémoire flash doit être effacée avant d’être réécrite).

Il n’y a que les SSD qui font un refresh, grâce à leur contrôleur plus évolué, et surtout, grâce à l’overprovisionning qui permet de le faire sans risquer de pertes de données (c’est pas un refresh en fait, c’est un déplacement des données, donc écriture au nouvel emplacement avant l’effacement de l’ancien).

Et encore, je suis pas sûr que tous les SSD le fassent, je pense que bon nombre de SSD comptent sur le fonctionnement de base de leur algo de wear leveling pour rafraichir les données par effet de bord…

Parce que avec une durée de rétention qui dépasse les 10 ans sur un SSD neuf et qui en pratique a peu de chances de réellement descendre à une durée problématique, le refresh est en fait loin d’être indispensable, un SSD a toutes les chances d’être au rebut avant même d’avoir perdu les toutes premières données écrites dessus.

1 « J'aime »

Appelle ça comme tu veux un SSD quand il est sous tension, ses cellules mémoires à 1 sont alimentées, ou réécrites j’en sais rien, et donc à leur potentiel le plus haut, régulirement, c’est quand il est hors tension que les cellules commencent à perdre leur charge électronique.

https://www.hardware.fr/news/14206/archivage-ssd-debranche-mauvaise-idee.html

Il est aussi intéressant que les disques durs pros ont une durée de rétention des données moindre un fois stockés « à froid » que les disques particuliers, alors qu’on aurait tendance à penser le contraire à priori.

Non, ce n’est pas une question de mise sous tension de l’appareil. Il est physiquement impossible de maintenir toutes les cellules sous tension, ça impliquerait d’avoir un circuit indépendant et permanant pour chaque cellule et d’être capable de toutes les lire en même temps (pour savoir à quelle valeur les maintenir…). Même avec la RAM ce n’est pas possible (et de fait, les RAM ont bien elles aussi un cycle de rafraichissement, tous les x cycles d’horloge).

Une cellule n’est raccordée au circuit que quand elle est sélectionnée pour lecture ou écriture.

Et pour remettre de la charge dans une cellule qui en a perdu, il ne suffit pas de lui appliquer une tension. C’est plus compliqué que ça.

Le seul moment dans le cycle d’utilisation où une cellule de mémoire flash accumule des électrons, c’est lors de l’effacement du bloc, qui va faire passer toutes les cellule du bloc au niveau de tension le plus élevé. Ce qui nécessite donc de lire tout le bloc pour le sauvegarder ailleurs avant d’effacer.

Voilà par exemple un papier de Texas Instruments sur le sujet, qui est très clair sur le caractère externe de l’opération de rafraichissement : https://www.ti.com/lit/an/slaa334b/slaa334b.pdf?ts=1630674198074

Extrait : « In an ideal scenario, the application has idle time frames, where no external events must be observed. During such an idle time, the software can copy one flash segment into RAM or any other flash segment. After erasing the original segment, the content is copied into the original segment. After such a flash refresh cycle, the data retention time for this segment restarts. » (sachant que dans le cas d’un SSD avec wear leveling et overprovisionning on peut zaper l’étape de remettre les données à leur emplacement d’origine, il y a juste à mettre à jour la table de correspondance entre les LBA et les adresses physiques).

Et clairement, ce cycle de rafraichissement, il ne peut pas être fait par exemple pour un BIOS de carte mère. Le risque en cas d’interruption d’alimentation pendant l’opération est beaucoup trop élevé en comparaison du risque de perdre les données au fil du temps. Sans compter le fait que ça monopoliserait le CPU pendant l’opération (et quiconque à déjà flashé un BIOS sait que c’est une opération longue, parce que l’interface d’accès au BIOS est vraiment pas rapide…).

À noter aussi que le même document indique que la puce MSP430 de TI est spécifiée pour une durée de rétention de 100 ans à 25° et que cette durée est très conservatrice et utilisée par tous les fabricants, bien que leurs tests montrent qu’en pratique à 25° ça tiendrait 1324 ans… Et pareil concernant l’endurance, il indiquent que le nombre de cycles minimum « garanti » est de l’ordre de 10 fois moins que le nombre de cycles que ça peut réellement tenir en pratique.

On voit aussi en haut de page 6 qu’ils calculent la durée de rétention en fonction de la température en utilisation et du temps d’utilisation, ce qui confirme bien que le simple fait d’être sous tension ne suffit pas à déclencher un rafraichissement automatique.

Les gars vous êtes entré dans un débat qui n’en finira pas car jusqu’à ce jour il n’y a eu aucune preuve réelle que les SSD perdent des données après de longues années … la majorité des gens n’investissent pas de l’argent pour ne pas utiliser un SSD au moins une fois par an. et pour l’archivage je pense que peu de gens se payent des SSD chers pour faire de l’archivage quand on peut se payer un DD de 4 To ou 8 To à un bon prix !

La RAM n’est pas faire pour le stockage donc inutile de la comparer aux SSD.

Mettre sous tension un SSD ne veut pas dire qu’on doit rafraîchir toutes les cellules d’un coup mais un SSD en tension fait du wear leveling (c’est même obligatoire pour conserver une durée de vie raisonnable) et certains font même du Static Wear Leveling c’est à dire qu’il choisit les cellules peu utilisés mais il fait aussi en sorte de déplacer les données qui occupent les cellules pendant une longue période. Si on a des jeux stockés sur le SSD et chaque jeu pèse plusieurs dizaines de Go … Un SSD qui n’a pas un contrôleur évolué ne jamais toucher aux données de ces jeux et donc on aura un SSD qui utilise que les cellules libres et récrit toujours les mêmes alors que celles où sont les jeux ont un nombre d’écriture/programmation très faible. donc le Static wear leveling va les déplacer vers l’autre côté du SSD et il récupère l’espace pour un autre usage.

Tout ça se fait en underground et ouiiiii les cellules sont rafraîchies (pas comme si on le laisse inutilisé).

1 « J'aime »

Les BIOS/Firmwares des cartes mères utilisent quand même des puces de meilleures qualités que celles utilisées dans les SSD (consommable) et c’est pas des mémoires Flash c’est des EEPROM (même s’ils ont un lien de parenté avec la mémoire flash).

La conception n’est pas la même, les SSD utilisent des cellules à plusieurs états et sont orientés vers la densité et tout ça ne favorise pas la rétention de données … les charges sont tellement proches qu’avec la température ça risque de causer des pertes de données plus que les autres types de NAND.

Soyons réalistes, aucun fabricant ne va te faire des mémoires qui durent 1000 ans c’est du délire il n’a rien à gagner … in the same time, les entreprises du secteur technologique font dans l’obsolescence programmée et la rétention ils n’ont rien à cirer !

C’est très facile de dire qu’un tel produit peut tenir 100 ans quand on sait que la durée de vie moyenne d’un être humain est 40% inférieure à ce chiffre :slight_smile:

En gros tu vivras pas assez pour démontrer qu’ils ont tort !

1 « J'aime »

Oui, mais c’est bien ce que je dit : ce rafraichissement est quelque chose qui n’est pas nativement intégré à la mémoire flash, c’est fait de façon externe par le contrôleur du SSD, quand il est suffisamment évolué. Et ce rafraichissement n’est qu’un effet de bord de l’algorithme de wear-leveling (si le SSD est laissé branché mais sans jamais aucune écriture dessus, il n’y aura pas de rafraichissement… même avec le static wear leveling, puisqu’au bout d’un moment il n’y aura plus de différence significative d’usure entre les cellules, et le static wear leveling n’aura pas de raison de faire des déplacements de données).

Or il y a énormément de mémoire flash qui ne sont pas utilisées avec un contrôleur évolué gérant le wear leveling. C’est le cas de tous les firmware, mais aussi de la plupart des cartes mémoires et des clés USB.

Et ce qu’on constate bien avec ces mémoires sans rafraichissement, c’est qu’en pratique elles n’ont en fait aucun problème à conserver les données bien plus longtemps que nécessaire.

À noter que ceci concerne aussi de fait les firmware de disque dur… Donc en pratique, un disque dur ne conserve pas les données spécialement plus longtemps qu’une mémoire flash, puisque l’accès aux données dépend du firmware, qui est en mémoire flash.

Non, effectivement, il ne cherche pas à faire des mémoires qui durent 1000 ans. C’est juste qu’elles tiennent 1000 ans « toutes seules », sans faire d’effort particulier pour que ça tienne aussi longtemps.

Et c’est pas un problème pour le fabriquant que ça dure aussi longtemps : ce n’est pas la durée de rétention des données qui pilote le rachat de telles mémoires… Celui qui ferait en sorte que ses mémoires flash n’aient que 10 ans de rétention à 25° au lieu de 100 ou 1000, il n’en vendra ni plus ni moins.

Ce qui est du coup suffisant pour moi : si mon produit ne perd pas la mémoire avant ma mort, je m’en fout qu’en pratique il dure moins longtemps que ce qui était spécifié.
Ce qui compte pour moi, c’est que la durée de rétention soit suffisante pour que dans ma vie je n’ai pas l’occasion de rencontrer une perte de données liée à ça. Et là de fait, c’est largement le cas avec les mémoire flash.

Tiens j’ai un PC avec un SSD qui n’a pas été démarré depuis son remplacement en 2016, faudrait que je teste à l’occasion.

Les mémoires flash sont physiquement des EEPROM. C’est simplement la logique d’adressage qui est simplifiée pour limiter les coûts (sur une EEPROM « haut de gamme » chaque cellule est adressable individuellement, en lecture, en effacement et en écriture, alors que sur une flash pour améliorer la densité l’adressage se fait par unités plus grosses, des pages de plusieurs Ko en lecture et écriture et des blocs de plusieurs Mo en effacement). Mais niveau rétention des données, il n’y a pas de différence fondamentale entre une flash SLC et une EEPROM « haut de gamme ». Bien sûr en MLC, TLC et QLC, on perd en durée de rétention, vu que le niveau de tension est respectivement 4, 8 et 16 fois plus sensible.

Il est bien question dans mon propos de SSD comme entité de stockage, comme un ensemble, je ne parle pas des puces elles-même qu’on ne pourrait de toute façon pas exploiter sans contrôleur.

Et la plupart de fabriquants sérieux fournissent des firmwares gérant ces mécanismes de protection/récupération des données dont vous parlez… Encore faut-il qu’il soit branché.

Et un disque externe est dans la plupart des cas, chez les particuliers, utilisé en stockage à froid de longue durée.

Et ne pas avertir les gens sur un risque bien réel d’une utilisation peu adaptée d’une technologie qui prolifère dernièrement, c’est pas sérieux.

Du coup je ne fait que prévenir à chaque fois que je vois la promotion d’un SSD comme stockage sans cet avertissement de rigueur.

Pour un stockage longue durée, d’autant plus à froid, de To de données personnelles irremplaçables comme les photos de famille ou autre documents adminidtratifs, privilégier HDD ou autres trucs magnétiques/optiques, sinon gare aux surprises dans 10 ou 20 ans, et un SSD c’est quasi impossible de récupérer les données dessus, contrairement à un HDD.