Commentaires : James Webb : les images stockées sur un petit SSD de 68 Go... mais pourquoi?

  1. On ne peut pas raisonner sur la base du prix du matériel grand public,
  2. On ne peut pas non plus raisonner sur la base du prix du matériel aujourd’hui (le projet a plus ou moins démarré au début des années 90 et la phase de conception principale s’est terminée il y a plus de 15 ans),
  3. Il n’y a pas que le prix qui entre en compte, mais aussi l’encombrement, la consommation électrique…
  4. Comme expliqué dans l’article, une capacité plus grande n’aurait pas vraiment permis de collecter plus de données, puisqu’en régime d’utilisation normal il envoie les données vers la Terre suffisamment vite pour ne pas saturer son SSD (le mode rapide, qui remplis effectivement le SSD plus vite qu’il ne se vide, n’a sans doute pas vocation à être utilisé de manière soutenue pendant une longue durée).

Bref, s’ils ont mis 68 Go, c’est qu’ils ont dû juger qu’il n’y avait pas besoin de plus ou que de mettre plus obligeait à des compromis inacceptables sur d’autres points.

C’est ce que je laisse entendre par l’argument « space » qui veut dire spécial dans mon argot perso et que donc on ne pourrait pas mettre un SSD normal à cause de l’environnement extrême. :sweat_smile:

Ils ont surement choisi ce SSD après avoir reçu une notification Clubic portant sur une promotion à ne pas manquer !

4 « J'aime »

Je n’ai pas compris l’article, finalement c’est un disque dur ou un SSD ? Lequel des deux résiste mieux à ce genre de conditions extrêmes ?

c’est un SSD mais soumis à certaine contraintes entre autre une gravure suffisamment grosse pour ne pas être trop influencé par les rayons cosmique !
tout le monde compare avec les disque SSD grand publique disponible aujourd’hui, mais personnes ne prend en compte qu’il y a 20 ans s’était la génération des SSD grand public de 12 Go,
de plus 68 Go n’est pas vraiment une capacité standard ! certainement un disque de bien plus grande capacité avec une section correction d’erreurs ! ou l’addition de plusieurs disque de capacité différente ! style 6x 12Go au cas ou un disque soit endommagé avec 4Go prévu pour la correction d’erreurs
il ne faut pas oublier que c’est la quantité de puce fabriqué qui permet d’avoir des cout amoindri pour le grand public, mais là il s’agit d’une fabrication unique donc un tarif colossalement plus élevé ! il s’agit certainement d’un compromis encombrement/fiabilité/tarif/consommation/poid

Il y a eu déjà un impact de micro météorite sur le miroir.

Je pense effectivement que le système est redondant et qu’il doit y avoir 136 ou 204 Go en fait, plus la gestion.
On ne peut pas accepter le risque d’une panne sur un maillon aussi important, d’autant plus qu’il n’est plus question d’aller réparer sur place comme avec Hubble.

1 « J'aime »

-500° sans des moonboots…j’ai oublié de préciser…haha

Le SSD est le composant le moins cher dans le satellite… 1 To aurait été un bon choix

On ne parle pas de matériel grand public, mais le ssd reste le composant le moins cher du satellite par rapport à ses récepteurs optiques, ses miroirs géants…qui doivent subir les mêmes conditions que le…ssd!

Tu crois vraiment que si ça avait été le cas, les ingénieurs de la Nasa n’y auraient pas pensé ? :sweat_smile:

Quand la conception du JWST a été commencée, même les disques durs n’atteignaient pas encore de telles capacités… Quand la conception détaillée a été terminée, les disques durs d’1 To étaient à peine arrivés sur le marché, et on commençait tout juste à parler de SSD de quelques Go en dehors du monde de l’embarqué.

Tu es en train de m’expliquer que la conception a été figée dans le temps et que les ingénieurs ont utilisé des matériaux et des équipements d’il y’a 20 ans!!! Sont un peu cons les gars qui s’occupaient du stockage… J’espère qu’ils n’ont pas aussi acheter le carburant il y’a 20 ans…

J’ai pas dit figée il y a 20 ans. Mais commencée il y a 20 ans environ. La conception détaillée s’est pour sa part terminée il y a 14 ans (en 2008) et a été validée définitivement en 2010. À partir de là, les spécifications ne bougent plus et la fabrication commence. La fabrication du gros des instruments a ensuite été réalisée pendant la première moitié des années 2010, et notamment les principaux modules :

  • l’ISIM, qui est la « plateforme » d’accueil des instruments, le châssis, l’électronique de contrôle, la communication avec la Terre, l’alimentation, qui a dû être terminé aux alentours de 2011-2012 (et à priori, le stockage fait partie de l’ISIM),
  • FGS/NIRISS, qui combine un système de positionnement et une caméra proche infrarouge a été intégré à l’ISIM en mars 2013
  • MIRI, la caméra moyen et long infrarouge a été intégrée à l’ISIM en juillet 2013,
  • NIRCam et NIRSpec, une autre caméra et un spectrographe proche infrarouge ont été intégrés à l’ISIM en mars 2014.

Et je parle là des version « finales » des équipements, littéralement ceux qui ont été envoyés dans l’espace. Avant eux, il y a eu des pré-versions pour commencer à tester. Par exemple la première version du FGS a été livrée à la Nasa en 2010 (et les versions suivantes, c’est pas pour upgrader les specs hein, c’est pour corriger).

Donc grosso modo, en 2014, il y a 8 ans donc, tous les instruments du JWST étaient fabriqués et assemblés ensemble. Il ne manquait plus « que » le télescope lui même, dont la fabrication des miroirs a été terminée en 2015 et l’assemblage en 2016.

À partir de là, il a subit des tests intensifs jusqu’à son lancement, plusieurs fois reporté pour diverses raisons (et notamment pour corriger des anomalies constatées lors de certains tests).

Parce qu’une mission comme ça, ça prend du temps pour tout bien valider et fabriquer, on ne peut pas se permettre de prendre le risque de changer des trucs « au dernier moment ». Il faut du matériel largement éprouvé et testé pour être sûr qu’il tienne le coup (on ne répare pas une panne sur le JWST !).

C’est bien pour ça qu’en matière d’informatique embarqué, tout ce qui est dans le domaine spatial a toujours l’air d’être complètement à la ramasse par rapport à ce qui est disponible sur le marché grand public au moment du lancement.

Hubble, lancé en 1990 avait initialement un CPU à 1.25 MHz (pour comparaison, le 8080 lancé par Intel en 1974 était déjà à 2 MHz). Il a été mis à jour en 1993 avec un 386 de 1985 (en 1993, on avait des Pentium) puis en 1999 par un 486 de 1989 (à l’époque des Pentium III). Et encore, Hubble c’était une machine sur laquelle on pouvait bien plus se permettre des pannes, puisqu’en orbite proche de la Terre, et avec à l’époque la navette spatiale qui permettait à des astronautes d’aller jouer les mécanos de l’espace (d’où aussi l’upgrade avec des CPU plus performants, chose impossible avec le JWST).

Sojourner, le rover martien lancé en 1996, utiliser un Intel 8085 de 1976 avec 512 Ko de RAM et 176 Ko de stockage flash. La sonde Mars Global Surveyor lancée la même année utilisait un 8086 (1978) et des 1750A (1980).

Les systèmes vitaux de contrôle/commande de l’ISS, dont le lancement a débuté en 1998, fonctionnent sur des 80386 (1985).

Philae, la sonde européenne qui a été lancée en 2004 fonctionnait avec des CPU RTX2010 datant de 1988. Des CPU 16 bits à 3 MHz. Avec un logiciel de contrôle tenant dans 2 Mo de stockage et 2 Mo de RAM. Le tout programmé en Forth, un langage sorti en 1970…

New Horizons, la sonde lancée vers Pluton en 2006, utilise un MIPS R3000 de 1988… Et encore, dans une version renforcée pour résister aux radiations, mais moins performante que la version originale de 1988…

Perseverance, le rover martien lancée en 2020, fonctionne avec un PowerPC 750 mono-cœur à 233 MHz. Le même CPU que celui qui équipait le tout premier iMac en 1998… Avec 256 Mo de RAM et 2 Go de stockage flash pour Perseverance, contre 32 Mo extensible à 512 Mo de RAM et 4 Go de disque dur pour l’iMac.

Et toi t’es en train de nous dire que tu crois vraiment être plus malin que les ingénieurs de la Nasa ?

1 « J'aime »