Le raid : ami ou ennemi ?

Effectivement, car ce type de solution nécessite la mise en place d’une baie SAN commune aux serveurs.
Alors qu’avec ma solution, je n’ai besoin d’aucune baie SAN…

Cette solution demande demande 995€ H.T. par serveur à sauvegarder, plus 3295€ pour le serveur de secours (prix des licences Recover Now). Pas besoin d’un serveur de secours pour chaque serveur… Ni de redondance sur le plan des licences! Le coût est donc extrêmement réduit.

C’est pas hardware, et il y a un contrôle CRC des duplications… Sincèrement, c’est pas infaillible (peut être?), mais c’est tout comme.
Edité le 15/04/2014 à 15:59

Alors je n’ai pas compris :confused:

Parce que je connais le DFS, le mirroring, data guard, etc. mais à chaque fois c’est un serveur supplémentaire, les disque et évidemment les licences :jap:

Désolé, j’ai mélangé 2 de leurs solutions: Recover Now et Availabilty Now.

Recover Now

-Il fait un mirroring des données via le service VSS, sur un serveur de sauvegarde.
-Il faut lancer manuellement le recover, qui prépare un serveur de secours (VM ou physique) et restaure les données. Pas besoin de double licences donc.
Le tarif hors marge est de 1495€ pour le serveur de sauvegarde, et 995€ par serveur à sauvegarder.

Chez mes clients qui ont 3 à 4 serveurs et dans les 2 To de données , j’en ai pour environ 6000€ serveur de sauvegarde compris. Serveur suffisamment velu pour faire tourner 2 VM de secours (au cas où 2 serveurs crasheraient en même temps), et garder le versionning des données sur 2 mois à raison d’une sauvegarde par jour.
Il propose aussi de la sauvegarde en continue des données, mais là il faut prévoir 30% supplémentaire d’espace disque sur le serveur de sauvegarde…

Availability Now

C’est encore plus radical: le serveur de secours est en permanence préparé, donc tu n’a pas d’étape de restauration. Comme le clustering Microsoft, il switche automatiquement si un problème est détecté, avec un temps d’inactivité de quelques secondes. J’ai donné le prix des licences hors marge, qui est raisonnable. En revanche, çà demande légalement de doubler les licences softs, suivant les conditions d’utilisation évidemment…
C’est donc le prix d’un clustering MSCS, mais sans avoir besoin de baie SAN, et avec l’avantage d’une configuration Rain au niveau des données.

En espérant que t’a compris :wink:

Désolé si çà s’éloigne du sujet “raid”… :riva:
Edité le 15/04/2014 à 17:11

Je n’ai pas lu tous les commentaires mais voici mon point de vue :

1/ Tous le monde dis, le Raid n’est pas une sauvegarde. OK.
Mais qui fait rééllement des sauvegardes externes des données de son PC (photos, save parties de jeu, doc. de travail) ? Je pense qu’il n’y en a pas beaucoup. Qui utilise un soft sous windows/linux pour suivre l’état de dégradation de son mono disque sur son PC ? Je pense que ça doit etre 5 à 20 % maxi des utilisateurs.

Donc le RAID 1/5/6 est déjà une sécurité au vu de tous ceux qui ne font jamais de backup (parce que c’est casse-bonbons, faut y penser, et c’est long).

2/Le Raid matériel c’est d’la balle. Sauf quand ta carte raid tombe en rade. Si tu n’as pas exactement la meme, adios les données.
Alors qu’un Raid logiciel sous windows 7 avec des disques dynamiques, ça se récupere en réinstallant Windows.
Un Raid Synlogy/XPenology, ça se récupere en changeant les disques de machines et en résinstallant la meme version du DiskStation Manager.

3/Pour les soucis de lecture lors de la reconstruction d’une grappe raid suite à la défaillance d’un disque :
Il ne faut pas mettre n’importe quoi comme disque !
Les NAS HDD ou Western Digital Red ne sont que des disques standard avec le support du RAID (temps passé à relire un secteur limité à 7 sec.). Il n’offre pas un taux d’erreur en lecture différent des disques de bureau (1 in 10^14).

Les disques sont de plus en plus gros, donc il faut diminuer le risque de taux d’erreurs (URE) en lecture et prendre des disques avec 1 in 10^15 minimum (ce qui fait 10 fois de risques d’erreur).
Les disques sont plus cher (Western Digital SE, Seagate Constellation ES, Hitachi Ultrastar), mais la sécurité des données a toujours couté cher.

4/ Ne pas faire de grappe RAID trop grosses, pour limiter les risques.
Raid 5 : grappe de 5 disques maxi
Raid 6 : pas plus de 7-8 disques par grappes.

5/L’utilisation du systeme ZFS et du Raid-Z est également recommandée. Avec l’inconvenient de pas pouvoir faire évoluer la taille des disques au fur et a mesure comme sur 1 Synology.
La config. nécessaire pour faire tourner l’OS est également conséquente (surtout en RAM et disques de cache), au risque de pas avoir de tres bonne performance.

6/Onduleur connecté obligatoire bien sur.

En prenant en comptes tout ceci, dans l’optique d’une utilisation chez les particuliers, le RAID est pour moi toujours viable.
En entreprises, c’est différent, les moyens financiers ne sont pas les memes (raid différents, backup, qualité des disques, etc…)

PS : pour évaluer le risque lors de la reconstruction d’une grappe : www.raid-failure.com…
Mettez le nombre de disque, le taux d’erreurs URE.
Edité le 15/04/2014 à 17:22

Voir ici : www.clubic.com… :wink:

Ah non, ne remets pas cent balles dans la machine !.. :o
En plus je crois bien qu’il est parti en vacances pour une semaine… :whistle:
Edité le 15/04/2014 à 17:39


[quote="klfclan"] Je n'ai pas lu tous les commentaires mais voici mon point de vue : ... [/quote] En fait tout ceci a déjà été dit, mais du coup ça fait un très bon résumé. :super:

Normalement, non en effet.

:neutre:


[quote="g-nesis"] Désolé si çà s'éloigne du sujet "raid"... :riva: [/quote] Ca s'éloigne, mais ce n'est pas totalement hors sujet non plus et de plus c'est toujours intéressant. ;)

Au hasard, mais vraiment : Moi ?! :ane:

Le problème justement c’est que trop peu de gens font des sauvegardes régulières de leurs données les plus importantes (RAID ou pas). :neutre:

idem, mes datas importantes sont donc sur mon raid5 + sur un HDD usb connnecté sur le serveur+ sur mes pcs + dans le cloud (hubic, onedrive,…)

Oui enfin, le prix dépend tout de même du serveur… nous un serveur c’est dans les 10k€ l’unité :smiley: Et puis immobiliser un serveur rien que pour la sauvegarde, là pour le coup je trouve que ça tient pas trop la route. Quitte à acheter un autre serveur, faut au moins qu’il puisse devenir actif dans les 5 minutes et le mirroring VSS c’est loin d’être infaillible (pour les bases de données déjà, c’est mort :confused: )

Mais cette solution ne couvre pas la panne du stockage :jap:

De notre coté, on va passer était en failover avec 2 baies SAN mirrorée et on va passer à hyper-V et AlwaysOn ou le mirorring SQL à défaut :jap:

-Le prix dépend du serveur… Au ratio investissement de la totalité de la solution de PRA / investissement initial, cette solution est clairement à explorer, même pour des grosses bébêtes :wink: Etudie-là si tu dois migrer!

-Dans un failover pure (et pas en répartition de charge), tu immobilise un serveur (ou plus) pour le secours d’un autre. Dans cette solution, tu l’immobilise pour la sauvegarde et le secours de un ou plusieurs serveurs. Grosse nuance :slight_smile:

-le serveur est actif sous les 5 minutes avec Availability Now…

-pourquoi VSS c’est mort pour les bases de données? Hormi copier à froid, je vois pas comment tu peux faire sans!?

???:
-si ton stockage raid foire sur le serveur de prod, tu a ton stockage sain sur le serveur de secours.
-si tu tombe sur une URE côté serveur backup, elle est détectée via le contrôle CRC et corrigée.
Tu veux pas non plus que çà supprime le risque d’URE côté production? :ane:

Je prône Hyper-v :wink:

Microsoft a vraiment rattrapé son retard concernant Citrix, pour ce qui est des VM. Je crois qu’ils ont déjà corrigé le seul défaut que je pouvais leur faire niveau VM avec Windows Server 2012: leur système de snapshot “écroulement des perfs au fil du temps”.

(je préfère attendre encore un peu avant d’adopter WS2012… Vu les bugs que j’ai du gérer avec Exchange 2013, je préfère que les autres essuient les plâtres…).

L’AlwaysOn = Double Take Availability Now. Vu que Vision Solution et Microsoft sont des partenaires très étroit, j’ai même l’impression qu’ils ont carrémment intégré la solution DT en fait.

Hyper-v + AlwaysOn, c’est un combo fantastique :love:
Edité le 15/04/2014 à 21:15

On l’a déjà fait et clairement ça répond pas aux exigences de rapidité ou de faisabilité. On ne s’en sert que pour le serveur de fichiers.

:non: il y a une grosse différence, tu peux utiliser le serveur de secours pour autre chose. Si t’as 2 noeuds, tu peux utiliser l’appli de compta en actif sur l’un et l’appli de RH sur l’autre. Tu utilises ainsi les 2 deux mais chacun protège l’autre :slight_smile:

Ce n’est pas supporté :jap: La réplication des datafiles avec VSS c’est absolument pas supporté et je doute même que ça fonctionne convenablement :confused:

La solution dont tu parlais et à laquelle je réponds dans cette citation c’est le failover, ou MSCS, soit des serveurs en cluster avec un stockage partagé :jap:

Non, c’est tout simplement le mirorring qui existe depuis un bail associé au failover pour avoir un nom de serveur unique. Ca permet de switcher de manière transparente alors que le mirroring impose d’avoir deux chaines de connexion distinct. C’est juste une évolution de l’existant : failover + mirroring :jap:

On va voir ça… pour le moment, Hyper-V fonctionne bien mieux que VMWare mais c’est aussi nettement plus capricieux (on a installé un agent DPM, MS aussi donc, ça a tout explosé :paf: )
Edité le 15/04/2014 à 21:19

Je persiste, aucun soucis avec la plupart des BDD. Sql Server > 2005 sp2, Oracle > 11g, Exchange (>?), sont tous fournis avec leurs propres writers VSS. Attention évidemment, à ce que le provider VSS du logiciel de sauvegarde, utilise bien ces writers.

A noter aussi, VSS depuis le 2008 R2, fonctionne aussi sur les Clustered Shared Volumes.

Pour le reste, totalement d’accord :wink:
Edité le 16/04/2014 à 01:03

pour la disponibilité des baies de stockage il y a aujourd?hui des tas de solutions qui existent du vraid au cluster (géo ou pas).

les problèmes liés au RAID 5, n’en sont donc plus vraiment lorsqu’il s’agit de ces baies là. Le problème reste entier lorsqu’il s’agit de raid pour des machines ou pour le particulier. le raid logiciel a ses avantages mais on peut plus facilement avoir des corruptions de données en cas de panne de secteur ou de redémarrage malencontreux.

le raid matériel peut posséder une batterie sur la mémoire protégeant alors tout risque lors de redémarrage intempestif, de plantage divers ou de coupure de courant.

Pour ma part, la plupart du temps, sur les servers, on utilise le RAID 1 pour les disques systémes (c:) le RAID 0 pour de gros espace de stockage nécessitant de la rapidité mais dont la perte n’est pas significatif (cache pour le backup par exemple), et le RAID 5 pour tout le reste. Le RAID nécessitant un disque supplémentaire, la sécurité est meilleure mais tout dépend de la volonté de l’entreprise sur la notion de cout/fiabilité : sachant qu’on ne peut pas se permettre de ne pas faire de backup en entreprise.

donc, le problème traité dans ce topic s’adressera probablement plus auX TPE/PME et aux particuliers.

En effet, on ne laisse pas reposé une machine sur du RAID 6 si on a besoin d’un temps de disponibilité à 99,99999. on passe toujours par du cluster et des baies redondées.

si on ne met pas les services ayant vraiment besoin de dispo sur une solution pérenne, c’est déjà se tiré une balle dans le pied. Pour le reste, on estime que le SLA doit permettre la restoration d’un backup sinon on met ces services sur des cluster.

se reposer sur du RAID 6 ou du RAID 5 pour espérer quoi que ce soit dans de la haute dispo, c’est de l’abberation, ni plus, ni moins.

le RAID est un outil de disponibilité, pas la panacée.

évidemment, il y a toujours ceux qui confondent disponibilité avec sauvegarde. sauvegarde avec archivage (oui le fait de mettre ces données ailleurs, ce n’est plus de la sauvegarde…)

probablement pas pour rien qu’il y a dans les grandes entreprises, des services différent pour la sauvegarde et le stockage. Le métier n’est pas le même, même si, parfois, les outils peuvent l’être.

donc dans les commentaires on a un joyeux mélange de diverses notions.

par contre, si j’ai bien compris la volonté de @juju pour ce topic, c’est de s’adresser davantage aux utilisateurs de solutions TPE/PME/Particuliers afin de les mettre en garde contre ce que n’est pas le RAID et c’est plutôt louable.

par contre, cela pourrait être indiqué de façon plus claire sur le topic de façon a éviter toutes digressions.

qu’en penses-tu @juju ?

Ma volonté c’était surtout de présenter les risques de pertes de données pour ceux utilisant le RAID pour héberger leurs données.

Evidemment, ça se destine avant tout aux particuliers, dans les grandes entreprises, il y a des services censés être au courant de ça pour gérer en amont tous ces risques.

Il me semble pourtant que c’était suffisamment clair.

Hmmmm… vas falloir que je vois ça en effet :jap: Pour SQL j’vois pas bien l’intérêt par rapport au mirroring mais pour Oracle, ça permettrait de pallier l’absence de Data Guard sur l’édition Standard… intéressant :super: sauf qu’avec ASM à mon avis, t’es mort :paf:

Et puis, quand je vois comme ça merde dans DPM, j’suis pas super, super confiant (genre : www.dba-oracle.com…) :ane: D’ailleurs, du coup, je me demande bien pourquoi DPM ne sauvegarde pas les bases Oracle avec ce système [:paysan]

Tu oublies les outils logiciels pour répliquer les données pour les rendre accessibles immédiatement en cas de souci :jap: C’est nettement plus économique que les baies redondées.
Edité le 16/04/2014 à 07:37

Tu n’es pas le seul.

J’utilise un DD externe que je branche sur le NAS pour faire une sauvegarde et en plus je grave des DVD que je vérifie tout les ans !

PS : Tu n’as pas répondu à ma question sur la reconstruction et les risques ?
Edité le 16/04/2014 à 11:58

pour ceux que ça intéresse : une intervention de Kroll Ontrack pour l’otan :
blog.ontrack.fr…

il faut lire la fin pour y voir un bon conseil… :wink:

je ne les oublie pas, j’ai simplement constaté que le logiciel pouvait avoir plus de couac que du matériel. Si on parle de fiabilité, le matériel est accompagné de logiciel (firmware, etc…) dont la configuration a été faite par des pros.

le problèmes des logiciels c’est que leur configuration et leur maintenance est, trop souvent, laissé aux mains pas toujours expertes du personnel de l’entreprise.

car, souvent, le logiciel doit être vérifié, ce que ne font que très rarement les personnes qui sont en charge.

en tout cas, uniquement se reposé sur du niveau de RAID si on cherche réellement de la haute disponibilité, ça reste problématique.

le logiciel, de toute façon, a en optique la volonté de se substituer au cluster, en utilisant peu ou prou les mêmes techno…

pour éviter les baies on peut aussi utiliser ce que MS appelle le “share nothing” permettant de ne pas utiliser de baies mais on se retrouve avec toujours le même problème de la donnée.

je prends un exemple, si tu veux du HA pour ton stockage, et que tu écris beaucoup de données par seconde, ton logiciel est-il paramétrer pour faire de la synchro en live ?
sinon, cela signifie alors que tu peux perdre la donnée entre 2 synchros.

comme dit dans le lien vers Kroll Ontrack , tout dépend du niveau de perte acceptable ET comprise…

la perte de données pouvant couter bien plus cher que le prix du matériel.

tu as surtout 2 cas : le(s) informations qu’on ne peut pas récupérer autrement, celles qui nécessiteraient énormément de temps pour la récupérer (en somme travail en double plus temps imparti)

du coup, si tu as 2000 employés, que tu perds 3 jours de travail, ce n’est pas “très” grave, “suffit” de retravailler 3 jours pour récupérer ce qui a été perdu.

maintenant, si tes 2000 employés sont des ingénieurs, combien vont te couter tes 3 jours… ?

pour l’avoir vécu de nombreuse fois, le logiciel c’est bien lorsqu’il est bien configuré (et parfois entre la configuration par défaut et celle optimale, il y a peu) mais cela peut être une catastrophe s’il ne l’est pas.

ex : un logiciel de surveillance de suppression de fichiers en réseau avait été mis en cluster, malgré que celui-ci n’était pas prévu pour.
la procédure mise en place ne permettait un switch que manuel d’un noeud sur un autre. je suis intervenu pour permettre qu’il soit switchable automatiquement. De ce fait, lorsque des switchs de noeuds se sont produit pendant la nuit, le matin, les fichiers restaient protégés. Alors que ce n’était pas le cas auparavant.
car il fallait que l’équipe informatique arrive, puis constate qu’il y avait eut un switch de noeud pendant la nuit et, qu’enfin, ils corrigent le problème…

les premiers employés arrivant vers 7h/7h30, l’équipe info arrivant vers 8h30 (environ) le problème n’était pas corrigé avant 9h/9h30.
2h pendant lesquels les fichiers n’étaient pas protégés… si c’est acceptable, no souci. dans le cas présent, ça ne l’était pas.
Pourtant il était possible de le faire avec ce logiciel. Il était juste mal configuré.

Par ailleurs, il y a des baies de stockage moyen de gamme sur ce site, n’étant pas dans les attributions du service info de les configurer, cela a toujours été fait conjointement entre des personnes dont c’est le métier (experts) et le constructeur.

tu vois donc pourquoi j’oppose matériel et logiciel ?

Mouais… pour moi, compter que sur le hardware c’est aussi un risque, j’ai vu trop de comportement bizarres à cause d’un bug quelconque dans le firmware. Donc oui, le soft c’est pas toujours trivial et on peut pas non plus compter que sur le soft (notamment parce que ça répond pas toujours au besoin) mais faut pas l’ignorer pour autant :jap:

Quand à la configuration, si t’as des manchots que ce soit hardware ou software, ça tiendra pas la route de toute façon :confused:

Dans le même délire, j’ai vu des baies SAN un peu particulières…

Le principe étant que le dernier slot disque, est conçu pour utiliser une cartouche protégeant le disque du transport, et de fiabiliser le connecteur pour un nombre répété de débranchement / rebranchement.

Un bouton sur la baie permet de préparer la cartouche pour un débranchage à chaud… Lors du rebranchement d’un disque, la reconstruction se fait de manière transparente.

http://www.high-rely.com/hr_66/products/bnas/

Il y en a un peu pour tous les goûts avec leurs gammes de produits :wink:
Edité le 16/04/2014 à 14:37

donc, si nous devions synthétiser le sujet de ce topic :
Le RAID est un ami si on sait exactement ce dont il est capable, ce dont il est incapable et que l’on reste conscient de faire des sauvegardes à côté.
(et qu’il faut savoir adapté le niveau de RAID en fonction de ses moyens et des buts à atteindre)

sans cela, le RAID pourrait bien être notre pire ennemi. Le pire car toujours proche de nous :wink:

Pour la seconde fois :

Ou alors, je n’ai pas du tout compris ce que tu voulais dire. :paf: