Commentaires : Les SSD plus fiables que les disques durs selon une étude

On est passé de la disquette au HDD comme du HDD au SSHD au SSD, et maintenant le SSD M.2, et bientot un nouveau format plus fomaté en NTSF en 8192, ni 4096 mais peut etre a 1 bit/s soit en 1024, si vous ajouté des logiciel accelerateur de disque cela peut etre difficile de voir en banchmarks parfois. mais bon en l’etat c’est un tout qui fait quand même la difference et pareillement les benchmarks logiciel sont ils a jours, mais l’un comme l’autre n’affiche pas le meme resultat il en faudrait un standart, ainsi on pourrait mieux tous les comparaitre en meme configuration, puisque les performance de compatibilité joue aussi sur les performance d’un disque dur, apres on peux s’estimer content puisque finalement il faudrait que tout les logiciels soit aussi adaptée ainsi que le system de formatage entre Macintosh en FMB je crois et PC en NTSF , pour comprendre tout ça on veux le plus performant mais la limite du connecteur sata n’a pas evolué la aussi. que du parametrage mais en informatique le disque dur doit servir a stocker pendant longtemps… l’IOPS … bien alors comparons le l’IOPS

donc vous avez indiqué : le nombre de pannes est bien plus important sur les disques durs avec 559 défaillances, contre seulement 8 sur les SSD.

bonsoir

De mon expérience, un DD lâche rarement d’un coup, il donne souvent des signes de prochaine défaillance qui laissent une chance de sauver tout ou partie des données.
Alors que le ssd de mon portable a claqué en 1 seconde, âgé d’à peine 6 mois.

Dans le passé (bien avant 2010) j’ai eu des soucis avec les DD âgés de 3 4 ans. Mais j’ai l’impression qu’ils sont plus fiables depuis, celui de mon ordi est de 2013 et celui de mon NAS de 2014 et ils sont en pleine forme. Il faut dire aussi que j’ai mis des ssd pour faire fonctionner les OS, les DD me servent uniquement au stockage de données, ils sont donc moins sollicités que dans le passé.

De toute façon, partant du principe que ni ssd ni DD ne seront fiables à 100%, toutes mes données perso (photos, documents etc) sont stockés sur NAS et dupliquées dans le cloud.

on s’en moque pas vue que le sata4 arrive et bien sure le PCIe x6, bien sure le monde entier peux se les permettre (d’etre equipé du dernier cri question informatique ) et le sujet reste encore le disque dur.

bien à vous

bon faite une recherche sur le net…

d’accord merci

Quel format ?

Bof, le genre de logiciels qui n’apporte rien de bon pour tous les risques qu’il fait prendre : instabilités du systèmes, problèmes venus de nulle part, potentielles pertes de données etc …

Bah, il suffit de tester avec les mêmes systèmes de fichiers, sur la même machine, non ?
Et puis globalement, quel intérêt d’avoir des benchs ultra précis de centaines de disques durs / SSD ?

Je ne suis pas sûr que « faire du bench » soit l’utilisation typiques des machines et encore moins de leurs unités de stockage.

Faux pour les machines Apple, c’est du APFS (Apple FileSystem). Et anciennement HFS / HFS+.

Pour les PC, sous Windows on est en NTFS (tu confonds NTFS avec la norme vidéo NTSC ? ).
Par contre, il existe d’autres systèmes de fichiers, sous Linux / BSD, etc, tels que Ext4, BTRFS, Open ZFS, ZFS, etc. (la liste n’est évidemment pas exhaustive).

A ma connaissance, FMB n’a jamais été l’acronyme d’un système de fichiers existant (à ma connaissance, je n’ai pas la prétention de tous les connaitre).

Ton post est tout de même bien embourillé, tu gagnerais à écrire plus lisiblement en faisant des phrases courtes et en aérant ton texte et en évitant de mélanger les différentes notions.

2 « J'aime »

merci de répondre a ma théorie superficiel… j’ajoute juste que les Bench sont quand même utiliser bon je parle pas par des novices mais y viendrons. et je suis un ex operateur Pao donc j’ai oublié le monde Mac, je n’utilise pas linux (ce qui est dommage) et j’ai la mémoire courte (même sur les technologies et plus), en soi en regardant le passé on a dépenser énormément en disque dur peut importe pour PC / Mac… j’avoue votre article attire l’attention, c’est cool

Bonjour

Salut,
L’incendie d’OVH rappelle qu’il ne faut pas trop compter dans le cloud… J’ai un VPS et son contenu qui sont partis en fumée sans aucune possibilité de ne rien récupérer !
Dans mon PC, j’ai 1 SSD pour l’OS + logiciels/jeux et 2 HDD identiques en Raid 1 pour mes documents importants.

Bah c’est comme n’importe quel support de stockage : l’information ne doit jamais être stockée a un seul endroit. Ton SSD et ton RAID1 de HDD sont d’ailleurs tout aussi vulnérables en cas d’incendie chez toi…

Olivier22 parle de données dupliquées dans le cloud, donc lui ne risque aucune perte de données en cas d’incendie dans la datacenter de son hébergeur de cloud. Il devra juste réuploader les données vers un autre datacenter.

Clairement le cloud aujourd’hui ça fait partie des trucs qu’il ne faut pas négliger pour le sauvegarde, c’est un moyen simple et peu coûteux d’avoir une sauvegarde sur site distant, et l’incendie d’OVH ne remet en aucun cas ça en question (tout au plus ça rappelle qu’il est encore mieux de sauvegarder vers deux cloud, pour avoir une copie distante même en cas de défaillance d’un des fournisseurs de cloud…).

Ça fondamentalement, ça reste un mauvais usage du RAID. Le RAID, ça sert à assurer la haute disponibilité, pas à assurer la sauvegarde. Et les documents importants, ça a bien plus besoin d’être sauvegardé que d’avoir une haute disponibilité.

Or si le RAID1 peut jouer un rôle de sauvegarde face à un type de sinistre (la panne matériel d’un disque dur), il ne couvre pas tous les autres sinistres contre lesquels la sauvegarde doit protéger (et ils sont bien plus nombreux et fréquents que les pannes matérielles) : erreur humaine (effacement accidentel des données), erreur logicielle, acte de malveillance (virus, cambriolage…), incendie, catastrophe naturelle…

Et il introduit même une cause de perte de données supplémentaires : le dysfonctionnement du contrôleur RAID (rare, mais ça peut arriver…).

Pour la batterie cela s’appelle un onduleur.

Non, rien à voir. Un onduleur c’est un dispositif externe à la machine, qui prend le relai temporairement en cas de panne secteur.

Si le secteur est pas rétabli avant la fin de la batterie de l’onduleur ou si l’alimentation de ton ramdisk est coupée pour une autre raison qu’une coupure secteur (débranchement, panne de l’alimentation de la machine… ou panne de l’onduleur s’il y en a un !), les données du ramdisk sont perdues.

Ce dont je parle, c’est bien d’une batterie directement intégrée au ramdisk, et qui va prendre le relais en cas de coupure d’alimentation quelque soit la cause, juste le temps que le contrôleur du ramdisk fasse le dump de la RAM.

Cf par exemple le Cloud Disk Drive 101 que j’ai cité en exemple :

Le gros bloc blanc, c’est la batterie, à droite tu as les barrettes de RAM, et entre les deux sur la tranche de la carte les 6 slots microSD (3 de chaque côté) qui servent comme destination du dump.

Je ne connaissais pas et ça tient combien de temps ?

Sans doute pas longtemps, mais ça n’a pas besoin de tenir plus.

Le but n’est pas de maintenir les données en RAM pendant toute la durée de la coupure d’alimentation, mais d’avoir assez d’énergie pour assurer le dump. Avec 6 slots microSD, on peut tabler facilement sur 300 Mo/s, donc en moins de 5 minutes y a moyen de dumper 64 Go.

Ok et quelle est la désignation de cette article ?
Chez moi si j’ai une coupure une fois dans l’année on peut dire que c’est d’une extrême rareté mais dans certaine zone ça peut être utile même couplée à un onduleur.

Cloud Disk Drive 101

Je me rappelle également d’un autre modèle en 5.25" SATA, qui utilisait un disque dur pour le dump. Mais je ne trouve plus la référence.

Mais c’est vieux, il n’y a à priori pas de produit récent équivalent (faut dire que les SSD NVMe ont quand même sacrément réduit l’intérêt des ramdisks physiques, même s’ils restent quand même moins performants).