James Webb : les images stockées sur un petit SSD de 68 Go... mais pourquoi ?

Eric Bottlaender
Spécialiste espace
19 juillet 2022 à 12h10
31
James Webb premières images M74 © NASA/ESA/CSA/JWST/STSCl/PHANGS
Une vue de la galaxie M74 à travers les yeux infrarouges du James Webb. Crédits : NASA/ESA.CSA/STSci/PHANGS

Depuis les premières images la semaine dernière, le télescope James Webb continue de transmettre ses photographies. Pourtant, sur ce grand appareil de plus de 6 tonnes, les données transitent sur un disque dur de… 68 Go.

À peine de quoi contenir plus d'une journée de relevés. Mais tout est calculé, et en réalité, c'est déjà beaucoup !

Mémoire insuffisante, voulez-vous supprimer des photos ?

Si tout se passe bien, c'est sur ce disque dur que vont transiter les photographies qui vont peut-être révolutionner l'astrophysique. « Chaque image est une nouvelle découverte, et chacune offre à l'humanité une perspective inédite sur notre Univers », rappelait l'administrateur de la NASA Bill Nelson le 13 juillet dernier, à l'occasion de la présentation des premières images scientifiques.

Depuis, la source ne tarit pas, et les équipes scientifiques préparent déjà d'autres publications fascinantes. Mais tout cela est permis grâce à une mémoire de seulement… 68 Go. Ce qui peut sembler ridicule, car nos PC, tablettes, et même de nombreux smartphones ont des capacités qui excèdent largement le stockage du JWST !

Des transferts en continu

Le télescope James Webb peut produire et stocker jusqu'à 58,8 Go de données chaque jour, un progrès absolument énorme par rapport aux 2 Go de données de capacité Hubble, ou au disque dur de la même taille du rover Curiosity.

Dans les modes d'acquisition les plus rapides, le JWST peut même remplir son disque dur en 120 minutes seulement… Ce qui force ensuite les équipes à télécharger rapidement ces données pour ne pas saturer la mémoire du télescope.

Mais pas de panique : le James Webb envoie ses paquets de relevés en bande Ka depuis le point de Lagrange L2 (à 1,5 million de kilomètres de la Terre) en deux périodes de 4 heures de transmission chaque jour. Et l'avantage de sa position réside aussi dans la constance de pointage nécessaire pour échanger des données avec lui. Ses observations, prévues très à l'avance, ne passent que quelques heures en mémoire avant d'être téléchargées !

James Webb premières images nébuleuse de l'anneau austral © NASA/ESA/CSA/JWST/STScl
Cela fait déjà plusieur semaines que ces images ne sont plus dans la mémoire du Webb, mais sur Terre. Il y en a déjà d'autres ! Crédits : NASA/ESA/CSA/Webb/ STSci

Assez pour rêver sans s'inquiéter

Pas d'inquiétude donc, tout est prévu pour que ce stockage, blindé et amplement suffisant, puisse survivre à 20 années d'exploitation à longue distance. Et si vous vous demandez pourquoi il n'y a pas plus de marge, il faut se souvenir que 68 Go, c'est encore énorme pour un véhicule spatial aujourd'hui, et ce, alors que le télescope James Webb a été conçu il y a près de 20 ans.

Les images sont donc bien à l'abri, et passeront beaucoup plus de temps sur les serveurs de la NASA et du Space Telescope Science Institute, qui les réceptionnent, les distribuent aux scientifiques concernés et les traitent pour leur présentation au public. De quoi se régaler !

Source : Tom's Hardware

Soyez toujours courtois dans vos commentaires.
Respectez le réglement de la communauté.
31
21
Zakalwe
Info intéressante sur le JWST, merci Eric. Correctement configuré, un SSD peut tenir très longtemps (perso déjà + de 10 ans pour un TLC…) Et je pense que celui du JWST est en SLC…
luck61
20ans un disque dur avec une utilisation intensive ??? On nous dit pas tout …
octokitty
Les cellules des puces mémoire doivent encaisser au moins 1 million de cycles P/E sans broncher. Par contre les conditions extrêmes et le rayonnement cosmique peuvent avoir plus d’incidence que les opérations d’écriture sur la mémoire de stockage.
Oldtimer
Pourriez-vous s’il vous plaît donner des pistes sur ces bons réglages ?<br /> Merci.
SPH
Merci pour l’article impeccablement rédigé.<br /> 68 Go de mémoire, c’est à la fois peu et beaucoup. Mais bon, comme le télescope upload toutes les données deux fois par jour, ça le fait.<br /> On verra ce qui lâche en premier : le SSD, la transmission ou l’optique du télescope.<br /> Je lui souhaite longue vie en tout cas !
cas_per
bonjour,<br /> je penses qu’il parle plus des réglage du système d’exploitation du style évité une utilisations excessives de swap en lecture écriture du à un manque de RAM ou même d’écritures excessives des logs, même si c’est un disque endurant qui est utilisé ce n’est pas pour sa qu’il ne faut pas faire attention à l’usage qu’on en a
Space_Boy
68GB n’est pas un chiffre rond. On ne trouve pas dans le commerce. C’est du custom made ? Bonne nouvelle, pas besoin de refroidisseur pour ce SSD. Il fait déjà -500° dans l’escace
MattS32
SPH:<br /> On verra ce qui lâche en premier : le SSD, la transmission ou l’optique du télescope.<br /> Ou encore le maintien de la position du télescope, qui finira forcément par flancher au bout d’un moment faute de carburant. Il me semble que c’est sur la base de la quantité de carburant restante que la durée de vie du JWST est estimée à une vingtaine d’années (contre beaucoup moins initialement, car la NASA s’attendait à consommer beaucoup plus de carburant pour rejoindre la position, merci la précision du tir qui a permis de grosses économies là-dessus).<br /> Autre risque possible, la collision avec un autre objet, même si à cet endroit c’est assez peu probable.
SPH
Space_Boy:<br /> Il fait déjà -500° dans l’escace<br /> Impossible <br /> La valeur du zéro absolu est fixée à −273,15 °C
darkneo2976
Il n’a pas dit que c’était des dégrés Celcius
DrGeekill
Peut-être qu’il est en fait de plus grande capacité et que seule une partie est utilisée ce qui permettrait de garder une longueur d’avance sur l’usure
FortyTwo
@octokitty<br /> Je pense qu’ils ont quand même prévu le coup en protégeant le disque de tous ces rayonnements cosmiques et autres…!
MattS32
Il s’agit de mémoire flash qui n’a sans doute pas grand chose à voir avec ce qu’on a dans nos produits grand public d’aujourd’hui.<br /> En particulier, il ne faut pas oublier que la mémoire flash est d’autant moins endurante qu’elle est gravée fin. Pour le grand public, il y a tout intérêt à graver fin, pour réduire le coût. Mais pour un appareil à plusieurs milliards, on peut utiliser des puces beaucoup moins denses, et donc beaucoup plus endurantes (et ce d’autant plus que de par sa conception ancienne, le JWST embarque des composants datant d’une époque où les finesses de gravure étaient beaucoup moins avancées). Et c’est d’autant plus intéressant qu’une gravure moins fine résiste aussi mieux aux rayons cosmiques à blindage égal.<br /> En outre, il y a probablement aussi de la redondance et de la correction d’erreur, 68 Go de stockage utile peuvent tout a fait être en pratique être par exemple 204 Go de stockage en triple exemplaire + ~20 Go de code de correction d’erreur.
Palou
MattS32:<br /> 68 Go de stockage utile peuvent tout a fait être en pratique être par exemple 204 Go de stockage en triple exemplaire + ~20 Go de code de correction d’erreur.<br /> et 12 Go de cookies
Nmut
C’est surtout la conception/programmation du contrôleur qui va permettre d’avoir une très grande durée de vie. Ici l’utilisation est très particulière et constante, et du coup il est assez simple d’éviter les effet d’amplification. C’est bien plus complexe avec un PC qui a des données utilisées de plusieurs manières différentes (OS, tampon, archivage) et sa demande des stratégies « moyennes » qui peuvent être mise à mal par une utilisation particulière.<br /> L’optimisation d’un SSD de PC, c’est juste d’éviter d’écrire / ré-écrire ou effacer des masses de petits fichiers, mais plutôt privilégier des écritures séquentielles de temps en temps avec un maximum d’utilisation de cache en mémoire, mais ce n’est pas toujours possible (pas de contrôle des logiciels qui tournent sur le PC!).<br /> Après, pour des usages personnels, je ne pense pas que l’on puisse atteindre la limite d’écriture d’un SSD en quelques années seulement!
Nmut
C’est très probablement du custom. Il n’est pas difficile de trouver des composants à assembler, besoins très spécifiques (range de températures, données particulières, sensibilité aux rayonnements, …).<br /> Pour la capacité, il y a probablement beaucoup de mémoire réservée au wear levelling (gestion d’usure des cellules) et au CRC, et ça ne m’étonnerait pas que la capacité physique soit de 128Go.<br /> Heu, et pour la température, voir les autres commentaires! Et le problème est à la fois les basses températures et les hautes températures + les changements rapides. Et sans atmosphère, la régulation de température n’est pas aisée (la chauffe demande pas mal d’énergie, le refroidissement ne se fait que par rayonnement. Edit: il me semble d’ailleurs que l’on utilise souvent le transfert d’énergie entre le coté au soleil et le coté sombre, si mes souvenirs sont bons).<br /> @ebottlaender, ça serait intéressant un article sur la gestion thermique et des rayonnements par les engins spatiaux. C’est déjà un problème pour l’aéronautique, je suppose que ça doit être un sacré casse-tête pour les satellites!
Cavamerci
la température la plus basse possible est -272°C mais c’est largement suffisant pour refroidir n’importe quel objet ^^
ovancantfort
La valeur du zéro absolu en degrés Fahrenheit est -459,67 °F. Ça se rapproche, mais ça ne marche pas non plus
ovancantfort
Pris de vitesse, j’allais répondre grosso merdo la même chose. <br /> Ceci dit, vu les contraintes en termes de tolérance, résistance au froid, au différences de température, au rayonnement, etc… , je doute fort qu’un seul boulon du JWST soit dispo dans le commerce normal.
cid1
Très intéressant détails ce SSD de 68 Go, on se demanderait pourquoi il n’ont pas mis un SSD de plus grosse capacité, vu ce que ça coûte de nos jours un de 500 Go aurait permis de récolter plus de données, enfin ça doit être un SSD très « space » pour résister aux températures extrêmes et apparemment çà suffit pour le besoin du JWST, tant mieux, je lui souhaite de rester très longtemps en orbite et qu’il surpasse Hubble.<br /> Merci pour cet article Eric.
MattS32
cid1:<br /> vu ce que ça coûte de nos jours un de 500 Go aurait permis de récolter plus de données<br /> On ne peut pas raisonner sur la base du prix du matériel grand public,<br /> On ne peut pas non plus raisonner sur la base du prix du matériel aujourd’hui (le projet a plus ou moins démarré au début des années 90 et la phase de conception principale s’est terminée il y a plus de 15 ans),<br /> Il n’y a pas que le prix qui entre en compte, mais aussi l’encombrement, la consommation électrique…<br /> Comme expliqué dans l’article, une capacité plus grande n’aurait pas vraiment permis de collecter plus de données, puisqu’en régime d’utilisation normal il envoie les données vers la Terre suffisamment vite pour ne pas saturer son SSD (le mode rapide, qui remplis effectivement le SSD plus vite qu’il ne se vide, n’a sans doute pas vocation à être utilisé de manière soutenue pendant une longue durée).<br /> Bref, s’ils ont mis 68 Go, c’est qu’ils ont dû juger qu’il n’y avait pas besoin de plus ou que de mettre plus obligeait à des compromis inacceptables sur d’autres points.
cid1
MattS32:<br /> Bref, s’ils ont mis 68 Go, c’est qu’ils ont dû juger qu’il n’y avait pas besoin de plus ou que de mettre plus obligeait à des compromis inacceptables sur d’autres points.<br /> C’est ce que je laisse entendre par l’argument « space » qui veut dire spécial dans mon argot perso et que donc on ne pourrait pas mettre un SSD normal à cause de l’environnement extrême.
Alexzeyos
Ils ont surement choisi ce SSD après avoir reçu une notification Clubic portant sur une promotion à ne pas manquer !
LeToi
Je n’ai pas compris l’article, finalement c’est un disque dur ou un SSD ? Lequel des deux résiste mieux à ce genre de conditions extrêmes ?
cas_per
c’est un SSD mais soumis à certaine contraintes entre autre une gravure suffisamment grosse pour ne pas être trop influencé par les rayons cosmique !<br /> tout le monde compare avec les disque SSD grand publique disponible aujourd’hui, mais personnes ne prend en compte qu’il y a 20 ans s’était la génération des SSD grand public de 12 Go,<br /> de plus 68 Go n’est pas vraiment une capacité standard ! certainement un disque de bien plus grande capacité avec une section correction d’erreurs ! ou l’addition de plusieurs disque de capacité différente ! style 6x 12Go au cas ou un disque soit endommagé avec 4Go prévu pour la correction d’erreurs<br /> il ne faut pas oublier que c’est la quantité de puce fabriqué qui permet d’avoir des cout amoindri pour le grand public, mais là il s’agit d’une fabrication unique donc un tarif colossalement plus élevé ! il s’agit certainement d’un compromis encombrement/fiabilité/tarif/consommation/poid
Zakalwe
Il y a eu déjà un impact de micro météorite sur le miroir.
Robinton
Je pense effectivement que le système est redondant et qu’il doit y avoir 136 ou 204 Go en fait, plus la gestion.<br /> On ne peut pas accepter le risque d’une panne sur un maillon aussi important, d’autant plus qu’il n’est plus question d’aller réparer sur place comme avec Hubble.
Space_Boy
-500° sans des moonboots…j’ai oublié de préciser…haha
Ashtur
Le SSD est le composant le moins cher dans le satellite… 1 To aurait été un bon choix
Ashtur
On ne parle pas de matériel grand public, mais le ssd reste le composant le moins cher du satellite par rapport à ses récepteurs optiques, ses miroirs géants…qui doivent subir les mêmes conditions que le…ssd!
MattS32
Ashtur:<br /> 1 To aurait été un bon choix<br /> Tu crois vraiment que si ça avait été le cas, les ingénieurs de la Nasa n’y auraient pas pensé ? <br /> Quand la conception du JWST a été commencée, même les disques durs n’atteignaient pas encore de telles capacités… Quand la conception détaillée a été terminée, les disques durs d’1 To étaient à peine arrivés sur le marché, et on commençait tout juste à parler de SSD de quelques Go en dehors du monde de l’embarqué.
Ashtur
Tu es en train de m’expliquer que la conception a été figée dans le temps et que les ingénieurs ont utilisé des matériaux et des équipements d’il y’a 20 ans!!! Sont un peu cons les gars qui s’occupaient du stockage… J’espère qu’ils n’ont pas aussi acheter le carburant il y’a 20 ans…
MattS32
Ashtur:<br /> Tu es en train de m’expliquer que la conception a été figée dans le temps et que les ingénieurs ont utilisé des matériaux et des équipements d’il y’a 20 ans!!!<br /> J’ai pas dit figée il y a 20 ans. Mais commencée il y a 20 ans environ. La conception détaillée s’est pour sa part terminée il y a 14 ans (en 2008) et a été validée définitivement en 2010. À partir de là, les spécifications ne bougent plus et la fabrication commence. La fabrication du gros des instruments a ensuite été réalisée pendant la première moitié des années 2010, et notamment les principaux modules :<br /> l’ISIM, qui est la « plateforme » d’accueil des instruments, le châssis, l’électronique de contrôle, la communication avec la Terre, l’alimentation, qui a dû être terminé aux alentours de 2011-2012 (et à priori, le stockage fait partie de l’ISIM),<br /> FGS/NIRISS, qui combine un système de positionnement et une caméra proche infrarouge a été intégré à l’ISIM en mars 2013<br /> MIRI, la caméra moyen et long infrarouge a été intégrée à l’ISIM en juillet 2013,<br /> NIRCam et NIRSpec, une autre caméra et un spectrographe proche infrarouge ont été intégrés à l’ISIM en mars 2014.<br /> Et je parle là des version « finales » des équipements, littéralement ceux qui ont été envoyés dans l’espace. Avant eux, il y a eu des pré-versions pour commencer à tester. Par exemple la première version du FGS a été livrée à la Nasa en 2010 (et les versions suivantes, c’est pas pour upgrader les specs hein, c’est pour corriger).<br /> Donc grosso modo, en 2014, il y a 8 ans donc, tous les instruments du JWST étaient fabriqués et assemblés ensemble. Il ne manquait plus « que » le télescope lui même, dont la fabrication des miroirs a été terminée en 2015 et l’assemblage en 2016.<br /> À partir de là, il a subit des tests intensifs jusqu’à son lancement, plusieurs fois reporté pour diverses raisons (et notamment pour corriger des anomalies constatées lors de certains tests).<br /> Parce qu’une mission comme ça, ça prend du temps pour tout bien valider et fabriquer, on ne peut pas se permettre de prendre le risque de changer des trucs « au dernier moment ». Il faut du matériel largement éprouvé et testé pour être sûr qu’il tienne le coup (on ne répare pas une panne sur le JWST !).<br /> C’est bien pour ça qu’en matière d’informatique embarqué, tout ce qui est dans le domaine spatial a toujours l’air d’être complètement à la ramasse par rapport à ce qui est disponible sur le marché grand public au moment du lancement.<br /> Hubble, lancé en 1990 avait initialement un CPU à 1.25 MHz (pour comparaison, le 8080 lancé par Intel en 1974 était déjà à 2 MHz). Il a été mis à jour en 1993 avec un 386 de 1985 (en 1993, on avait des Pentium) puis en 1999 par un 486 de 1989 (à l’époque des Pentium III). Et encore, Hubble c’était une machine sur laquelle on pouvait bien plus se permettre des pannes, puisqu’en orbite proche de la Terre, et avec à l’époque la navette spatiale qui permettait à des astronautes d’aller jouer les mécanos de l’espace (d’où aussi l’upgrade avec des CPU plus performants, chose impossible avec le JWST).<br /> Sojourner, le rover martien lancé en 1996, utiliser un Intel 8085 de 1976 avec 512 Ko de RAM et 176 Ko de stockage flash. La sonde Mars Global Surveyor lancée la même année utilisait un 8086 (1978) et des 1750A (1980).<br /> Les systèmes vitaux de contrôle/commande de l’ISS, dont le lancement a débuté en 1998, fonctionnent sur des 80386 (1985).<br /> Philae, la sonde européenne qui a été lancée en 2004 fonctionnait avec des CPU RTX2010 datant de 1988. Des CPU 16 bits à 3 MHz. Avec un logiciel de contrôle tenant dans 2 Mo de stockage et 2 Mo de RAM. Le tout programmé en Forth, un langage sorti en 1970…<br /> New Horizons, la sonde lancée vers Pluton en 2006, utilise un MIPS R3000 de 1988… Et encore, dans une version renforcée pour résister aux radiations, mais moins performante que la version originale de 1988…<br /> Perseverance, le rover martien lancée en 2020, fonctionne avec un PowerPC 750 mono-cœur à 233 MHz. Le même CPU que celui qui équipait le tout premier iMac en 1998… Avec 256 Mo de RAM et 2 Go de stockage flash pour Perseverance, contre 32 Mo extensible à 512 Mo de RAM et 4 Go de disque dur pour l’iMac.<br /> Ashtur:<br /> Sont un peu cons les gars qui s’occupaient du stockage…<br /> Et toi t’es en train de nous dire que tu crois vraiment être plus malin que les ingénieurs de la Nasa ?
Voir tous les messages sur le forum

Derniers actualités

L'iPhone 12 Mini passe sous la barre des 600€ avec cette offre folle 🔥
Forfait pas cher : Free mobile fracasse le prix de sa série 90 Go !
Xiaomi nous en dit plus sur sa voiture électrique et les technologies maison qu'elle embarquera
Samsung Galaxy Z Fold 3 versus Galaxy Z Fold 4 : des évolutions suffisantes pour changer de smartphone ?
Cette solution VPN vous accompagne jusqu'à l'automne 2025 à -83% !
Non, vous ne rêvez pas ! Tesla a installé une piscine sur un Superchargeur
Pour vous, le meilleur antivirus du marché est disponible à -60% pendant un an !
Après Samsung et Xiaomi, c'est au tour de Motorola d'officialiser son Razr 2022
Microsoft introduit l'effet Mica dans Word 2021
Microsoft corrige plus de 120 failles, dont 17 critiques
Haut de page