Impensable il y a seulement quelques années, le record que vient de battre Western Digital ouvre la voie à des disques durs aux capacités folles.
Impressionnant, mais ça devient vraiment urgent de généraliser sur ces gros disques des solutions pour lire/écrire plusieurs plateaux en parallèle, parce que les temps de backups et de reconstruction RAID vont être extrêmement longs (là d’après les specs on est déjà à un jour et demi, un 50 To avec la même architecture dépassera les deux jours)…
C’est vrai qu’avec le niveau de redondance nécessaire pour reconstruire le disque en 2 jours tout en étant assuré de ne rien perdre, plus le fait d’avoir un surcout à l’achat, il faut une conso énergétique optimale pour être intéressant. Sinon, autant prendre de plus petits disques avec des Raid multiples dont le 0 pour profiter de l’écriture et de la lecture parallèle et ainsi combler le faible débit. Après, je pense qu’on serait sur des disques adaptés plus à de l’écriture de stockage sans recherche d’accès, genre les disques sur lesquels tu vas mettre tes backup.
Ce n’est pas possible puisque les plateaux tout comme les têtes sont solidaires. Pour faire ce que tu dis, il faudrait que chaque tête soit indépendante. Ce qui nécessiterait un tout autre design mécanique et électronique, extrêmement plus coûteux.
Cela a été tenté dans le passé, mais avec des disques ne comportant qu’un seul plateau (avec deux actuateurs), et donc de faible capacité. Mais non seulement c’est beaucoup plus cher à réaliser (je n’ose imaginer sur un disque à 11 plateaux de densité actuelle !), mais en plus il faudrait beaucoup de place pour les bobines.
Non, il n’est pas forcément nécessaire d’avoir deux actuateurs : les deux actuateurs ne sont nécessaires que si on veut lire en même temps des données qui sont à deux endroits différents sur leurs faces respectives.
Mais si au lieu d’écrire toutes les données d’un secteur sur une même face on les répartissait sur deux faces, on pourrait doubler le débit, tout en n’ayant toujours qu’un seul bras, puisque les données à lire/écrire simultanément sont à la même position angulaire du bras, simplement sous deux têtes différentes. Un peu comme un RAID1 (d’ailleurs en RAID1 sur des opérations séquentielles les deux bras des deux disques vont être à la même position au même moment).
Ça ne nécessite donc « que » de pouvoir activer deux têtes en même temps. Donc ça complexifie l’électronique, mais ça n’est pas impossible.
Et non, les systèmes à deux actuateurs ne sont pas forcément impossibles non plus avec un grand nombre de plateaux. Seagate le fait sur des disques à 8 plateaux (Exos 2x14 et 2x18) par exemple, ça ne fait qu’un seul plateau de perdu par rapport au maximum que fait actuellement Seagate. Et au passage, ça veut dire qu’ils ont bien l’électronique pour activer deux têtes en même temps, et ça pourrait donc tout aussi bien se faire avec un seul actuateur et des secteurs découpés sur deux faces, et donc sans perdre en nombre de plateaux (mais avec des bénéfices moindres, le fait d’avoir deux actuateurs permet, en plus de doubler les débits, d’augmenter les IOPS).
Il y a sans doute d’autres problématiques qui entrent en jeu pour expliquer le fait qu’une telle solution n’arrive pas sur le marché, mais ce n’est vraiment pas une impossibilité technique.
Peut-être un problème de balance coût/bénéfice. Mais justement plus on monte en capacité plus le bénéfice devient important, puisque les durées de backup augmentent proportionnellement à la racine carré de la densité et proportionnellement au nombre de plateaux.
Pour ma part je trouve étonnant que toutes les têtes de lecture soient encore et toujours solidaires, même si je comprends la complexité de les rendre indépendantes.
Edit : commentaire écrit avant d’avoir lu les commentaires suivants le tien.
Je pensais que c’était déjà le cas… Les débits montent avec le nombre de plateaux donc pour moi c’était du à la répartition des secteurs logiques sur des disques différents, le disque lisant en même temps des blocs sur plusieurs disques…
Et pour des actuateurs supplémentaires, c’est bien pour les débits mais c’est surtout intéressant sur les temps d’accès. Par contre comment les caser sans changer le form factor ou réduisant le diamètre des plateaux? Je crois que je n’ai jamais vu des photos des disques à double têtes ouverts…
Edit: Après quelques recherches, en fait le double actionneur est positionné sur le même axe => intérêt moindre…
En général non justement.
Petit exemple avec les Exos 24 de 24, 20, 16 et 12 To :
![]()
Ça arrive parfois, mais c’est alors parce qu’ils ont mis des plateaux plus denses sur les modèles avec le plus de plateau. Par exemple c’est le cas sur les WD Red Pro, qui pour 24, 20, 16 et 12 To sont donnés pour 287, 268, 259 et 240 Mo/s (et même à peine 164 pour le 2 To, qui a vraisemblablement deux plateaux de 1 To plutôt qu’un seul de 2 To, alors que le 24 To a 10 plateaux de 2.4 To. Si on fait le calcul, les plateaux de 2.4 To c’est théoriquement 55% plus de débit que les plateaux de 1 To, ça colle à peu près).
Ok.
Mais alors pourquoi ne le font ils pas, j’aimerais bien connaitre la raison! ![]()
Question sérieuse : pourquoi le temps de sauvegarde d’un disque entier est-il aussi important ?
Si on considère le disque comme une unité de base, on peut augmenter la bande passante et la redondance en ajoutant davantage de disques. Il est ainsi possible de configurer les sauvegardes en fonction des fichiers, tout en atteignant les objectifs de temps de sauvegarde. Si on veut accélérer la sauvegarde d’un fichier, on peut le répartir sur plusieurs disques. Remplacer l’unité disque par une unité plateau dans la conception RAID pose des défis techniques, sans offrir d’avantages significatifs pour les centres de données.
C’est différent pour la reconstruction RAID, mais c’est une opération assez rare pour que le temps ne soit pas un facteur critique. Si on a assez de serveurs, et que les données sont redondantes entre les serveurs, celui en reconstruction est en inaccessible ou en service dégradé.
Je ne connais personne qui s’en soucie :
- quand on a un système qui dépend de très gros fichiers pour pouvoir démarrer, comme pour des bases de données, on a des sauvegardes totales puis des sauvegardes incrémentales, qui sont répliquées en quasi temps réel sur un autre site, sur des disques rapides et en cas d’incident on repart sur ce système répliqué. La dernière sauvegarde est sur des disques rapides ; les disques lents ne servent que pour des sauvegardes « froides », celles d’il y a 3 semaines, 6 mois, 2 ans, que l’on remontera uniquement pour des cas exceptionnels, sur un système différent, juste pour « contrôle » ou réparer un bug introduit entre temps
- quand on a des teras de données à gérer, on est de toute façon avec des baies disques, avec les blocs qui sont distribués sur plein de disques
Ce que tu décris est juste un entrelacement des données avec 2 têtes (une par face). C’est pas un peu, c’est exactement le principe du RAID (entrelacer les données sur plusieurs volumes, hormis le RAID1 qui est un miroir). L’entrelacement sur une face existait autrefois d’office sur les disques, et est devenu inutile avec le temps. Je ne vois pas en quoi le fait d’entrelacer sur 2 faces (avec donc les 2 têtes au même endroit sur chaque face du plateau) apporterait le moindre gain, puisque ce qui rend les disques lents, c’est la vitesse de rotation des plateaux et le déplacement des têtes. Alors qu’avec deux actionneurs qui peuvent se déplacer simultanément indépendamment on double cette vitesse.
Les 2x14 ont seulement 2 actionneurs, ce qui n’est pas nouveau. En réalité, ce sont deux disques au sein d’un seul boitier. C’est très particulier et c’est surtout une vitrine technologique, je ne suis pas certain que ce type de disque soit très utilisé en production. Chez Backblaze, qui a des dizaines de milliers de disques dans ses serveurs, je n’ai jamais vu un de ces disques. Quelle est la fiabilité de ce système ?
Ce dont je parlais, c’est de décupler considérablement la vitesse des disques en ayant toutes les têtes indépendantes, pour pouvoir accéder simultanément à des données sur toutes les faces de tous les plateaux, comme peut le faire le contrôleur d’un SSD en accédant à n’importe quel endroit de la mémoire. En ce qui concerne cela, c’est le coût prohibitif qui serait évidemment un frein, mais aussi très probablement la fiabilité. On trouve toute la littérature à ce sujet sur le web, avec les tentatives des fabricants.
Il y a deux notions dans les performances d’un disque dur, d’une part le débit, de l’autre le temps d’accès.
Ce que je décrit n’apporterait effectivement rien sur le temps d’accès, qui correspond au déplacement des têtes et au temps d’attente avant que les données voulues défilent sous la tête une fois qu’elle est positionnée (soit en moyenne le temps pour faire un demi tour de plateau).
Par contre ça double le débit en séquentiel. Quand tu dois lire un bloc de données, si il est réparti sur deux faces avec une lecture simultanée, il y a deux fois moins de longueur de piste à faire passer sous les têtes pour lire ce bloc que si tout est sur la même face. Donc deux fois moins de temps. Exactement comme avec un RAID0, qui revient bien à ça, répartir des données contiguës de l’espace logique sur deux faces différentes de plateaux accessibles simultanément.
Ce que tu proposes est donc de doubler le débit de données, ce qui nécessiterait, avec ta proposition, une toute autre électronique (capable de transformer le signal analogique avec un débit doublé) et un contrôleur spécifique. Quelles seraient les performances d’une telle solution lors de la lecture massive de petits fichiers (<4K), par rapport à la solution à deux actionneurs de Seagate ?
Parce-que doubler (en théorie) le débit, c’est ce que fait déjà un disque comme le 2x14 que tu as cité, en utilisant une autre technique (deux demi disques imbriqués dans un même boitier 3,5"), mais plus simple à mettre en oeuvre. Activer les deux têtes sur les deux faces d’un plateau en même temps, ce n’est pas si facile que ça techniquement, le coût serait nettement plus élevé. De toutes les techniques expérimentées sur les disques durs mécaniques (et il y en a eu…), la plupart ont été abandonnées parce-que trop coûteuses ou non fiables.
Tant de choses ont été tentées à titre expérimental depuis l’invention du disque mécanique. Citons par exemple la curiosité qu’était le HRD de Dataslide, avec ses plateaux rectangulaires et ses milliers de têtes, offrant un débit de plus de 500Mo/s en 2009 : https://www.gravure-news.com/visunews.php?n=3221. L’essor du SSD a signé la mort de ce type d’innovations.
Car finalement, et c’est le plus important, le disque mécanique n’a pas vraiment d’avenir, il serait mal avisé de dépenser beaucoup en R&D pour tenter de le révolutionner, n’est-il pas ?
