Mardi, une panne de plusieurs heures a perturbé divers services cloud Microsoft 365 et Azure dans le monde entier. Microsoft a confirmé qu’une attaque par déni de service distribué en était l’origine mais qu’un autre problème a amplifié son effet.
Et les commerciaux MS continuent de nous assurer que leur système est fiable … servez vous de vos sens et tirez vous même les conclusions de tout ce que MS nous fait subir depuis des mois.
Dans lequel Microsoft n’avait pas vraiment de responsabilité.
Sinon, mardi ça a été en effet très dégradé pendant un bon moment.
qui a déclenché une réaction inattendue de ses systèmes de défense
C:\> Format c:\
le cloud est un gros émulateur (au même titre que les VM - mais là on émule des couches supplémentaires : PaaS voire SaaS).
Quand on sait qu’en termes de performance un émulateur sera toujours moins bon qu’un hardware : quand va-t-on faire une véritable analyse de coût/performance/besoin avant d’aller réellement dans le cloud ?
Dernière chose à faire en matière d’analyse de cout et de risques! ![]()
Si tu as subi des choses désagréables ces derniers mois, en quoi MS était responsable? C’est une vraie question, car comme utilisateur régulier (plusieurs systèmes persos et pros sous Windows, du LDAP, sharepoint, teams, Outlook, hotmail, de l’intégration continue avec Azure, … avec différents clients) je n’ai pas vu de dégradation de service depuis des mois.
C’est pourtant fait. En fait là ou on gagne vraiment, c’est que le matériel est très souvent largement sous exploité (les nuits et les périodes de congés par exemple). Par exemple, un cas extrême, ce sont les chercheurs qui ont besoin de resources pendant un temps limité, et le fait d’avoir une puissance instantanée très supérieure fait gagner un temps fou. Donc louer à la demande de la puissance sur un super-calculateur qui sera bien mieux exploité revient très largement moins cher que d’avoir une infrastructure locale.
Mais ce genre de calcul est aussi à faire par exemple avec les services de cloud gaming. Avoir un gros PC qui coute une blinde par rapport un petit PC + un abonnement. La question se pose vraiment. C’est pareil pour les entreprises et leur parc informatique.
Ah que le monde aime taper sur Microsoft… Rien ne change dans ce bas monde. ![]()
Pas de responsabilités … ceci dit, ils n’ont pas attendu bien longtemps pour dire que c’était la faute de l’Europe. M’est avis qu’il ne se sentaient pas les cuisses propres.
Sais tu de quand date Office3615 et Azure ?
MS est en beta test sur ces sujets depuis juin 2011 … soit plus de 13 ans. En 13 ans (soit plus qu’un cycle de vie d’un Windows), ils auraient pu trouver le moyen de stabiliser leur truc.
Les patchs mensuels qui amènent à chaque exemplaire leur lot de régressions : dernière en date, la suppression du pincode bitlocker, obligé de resaisir la jolie clé de 48 chiffres.
Se servir de ses sens s’appelle du bon sens ou du pragmatisme. Ta réflexion pue à plein nez le conformisme … parce que c’est évident, si on t’écoute, la majorité a toujours raison. Comme disait l’autre, « ce n’est pas parce que tout le monde fait une c_nnerie que ce n’est plus une c_nnerie ».
Cette année la quasi intégralité des patchs mensuels pour Windows étaient vérolés. Que te faut il de plus comme exemple de désagrément ?
Et ton exemple d’utilisation du cloud est juste mais celle-ci concerne des sujets de niche. Le commun des utilisateurs n’a pas ce type de besoin.
Pour toi peut être, mais l’actualité ne dit pas ça.
Je crois que notre ami à 3 lettres est sorti de ses gonds cette fois, et du bois par la même occasion ![]()
Du bon sens oui, mais pas vraiment du pragmatisme.
Les sens sont trompeurs, une bonne analyse tente d’exclure les biais naturels.
JE ne comprends pas…
Justement non. Ce n’est que la réflexion et la conscience des biais que l’on trouve une solution raisonnable, pas par les sens et les réflexes qui ne sont bons que pour échapper à un prédateur (!), pas pour une analyse de situation! ![]()
Ne pas mélanger la surmédiatisation de quelques cas avec un vrai problème de fond récurent (voir mon speech sur les réflexes). Ne serait-ce que ton « la quasi intégralité des patchs mensuels pour Windows étaient vérolés » est complètement faux. La proportion est faible et reste a priori dans les standards.
Tout à fait, mais ma réponse était à @youmetooandyou sur les choix des entreprises pour le cloud! ![]()
Mais on peut aussi rapprocher ça ce que MS te fait subir. Est-ce que les soucis de mardi t’ont touché comme non pro? Probabalement pas…
Info que je ne connaissais pas?!?
La dernière notification que j’ai reçu c’est la beta de Azure copilot… Si c’est dans ce sens que tu parles de béta « depuis 2011 », oui effectivement ils ajoutent en permanence des fonctionalités.
Ce n’est pas grave … loi de brandolini se vérifie une fois de plus. Je n’ai pas envie de cramer du temps à t’expliquer.
Je pourrais t’opposer l’effet Dunning-Kruger, mais puisque tu ne veux pas échanger, je ne saurais jamais si tu ne comprends pas ce que je dis, si c’est moi qui ne comprends pas ce que tu dis ou si l’un des deux manque de connaissances informatiques… ![]()
@TNZ Et donc, tu préconises quelles solutions hors Microsoft ?
Une démarche à vrai dire … repartir des besoins premiers : faire le tri entre l’essentiel et le dispensable.
(une interface arc-en-ciel qui clignote dans le noir n’est pas forcément primordiale)
Aujourd’hui, on est en train de vendre le modèle et l’uniformité Ikea aux ébénistes en leur expliquant qu’ils se trompent depuis des années.
Hors les besoins premiers et le pan sécurité par exemple (même si l’actualité en parle souvent et que Mélina fait un boulot de dingue) ne sont plus des sujets mis en avant par les fournisseurs. On nous inonde avec des fonctions gadget au point d’en oublier le principal.
Bref, quand il vient devient difficile de distinguer dans quelle bulle (Stallman parle de « prison dorée ») nous emmène les fournisseurs, il faut débrancher le pilote automatique et reprendre les commandes de l’avion : repartir de l’analyse des besoins, nom, prénom adresse … du simple, fiable et secure.
Est ce que la plupart des gens vont être capable de / avoir envie de ? Faut il laisser la logique lemmings aller à son terme ?
En fait, j’ai plus de questions que de solutions à poser sur la table. Le retour à l’essentiel reste le plus évident, mais initier la démarche dans le contexte actuel (j’aurais plutôt dit dans la paresse consumériste actuelle) pose la ligne de départ loin, très loin (trop loin ?) de l’objectif.
Pour en revenir à la question d’origine : par rapport à ce qu’on peut trouver tout de suite, pas trop contraignant et rapide à mettre en musique … disons une Ubuntu LTS avec mises à jour automatiques (unattended-upgrades paramétré sur tous les dépôts). La manutention est simple, la publication des correctifs de sécurité est l’une des plus rapide du marché et l’ensemble des outils principaux (internet & bureautique) sont fournis.
Perso, je pousse les choses plus loin (noyau, pilotes graphiques, compilateur, …) mais le niveau demandé n’est pas forcément compatible avec les attentes grand public (même si cela reste relativement simple).
Même si je suis en partie d’accord avec ton raisonnement (le KISS est en général une bonne solution, mais peut-être pas LA solution), ça s’applique finallement surtout pour des utilisateurs non pro.
Les services proposés par « le cloud » ont en général du sens (à part l’interface arc-en-ciel
). Par exemple, faire de l’intégration continue avec Azure, c’est l’assurance d’avoir les outils répondant aux besoins actuels et probablement futurs d’un projet de façon relativement simple et fiable. Il reste à quantifier la perte de « souveraineté », le risque (dépendance fournisseur et réseau) et surtout la perte de compétences en déléguant ces tâches très techniques. Mais c’est toujours le problème du choix de la sous-traitance (et même souvent juste des outils de haut-niveau), et pas qu’en informatique et pas qu’avec Microsoft.
Et c’est un « mercenaire » depuis 35 ans qui te dit ça! ![]()
Ben « mercenaire » aussi … et à 3 ans d’avoir ses trimestres et aussi + de 35 ans de R&D / Architecture SI / homme orchestre / veille techno / viande extérieure.
(coucou les certitudes de baxter)
Ton analyse pro versus le grand public est juste … quand les pros ont la main sur les choix stratégiques du SI … et pas les comptables de la DAF, principales victimes des mensonges marketing des éditeurs.
Bref, on m’a jambonné copieusement avec les certifications architecte cloud (je te passe le nommage anglo-saxon bien ronflant qui ne sert qu’à flatter des egos en mal de reconnaissance). Au final, le cloud fait plein de choses de manière très moyenne, avec une marge de manoeuvre tout aussi moyenne mais avec une facturation, quant à elle, de très haut niveau, je dirai même, surtout en ce moment, olympique. Les services proposés sortant du lot sont pour la plupart des fonctions propriétaires ne permettant pas de changer de fournisseur facilement à moins de développer autant de versions de l’application qu’il y a de clouders dans le périmètre.
Là où les solutions cloud sortent du lot sont au nombre de 2, pas plus :
-
Comme l’exemple évoqué, le besoin ponctuel d’une grosse infra de calcul et ça c’est imparable en terme de coût matériel et humain versus le OnPremise.
-
Frontaux WEB des portails grand public où l’auto scaling permettant la mise en oeuvre automatique de ressources « quasi » illimitées
Pour le reste, il n’y a pas débat, la solution OnPremise est plus rationnelle et moins chère … et si un rapport « interne » tente de prouver le contraire, c’est qu’il y a moyen d’améliorer l’industrialisation interne du SI. Michel Audiard le disait : « les c_ns ça ose tout, c’est même à ça qu’on les reconnaît ». J’en ai même vu tenter de prouver qu’une Prius était moins écologique qu’un Hummer H2.