La NASA a annoncé le lancement prévu de l’Observatoire spatial Nancy Grace Roman pour septembre 2026, avec une accélération de huit mois par rapport au calendrier initial. Ce nouveau télescope, doté de technologies avancées, est prévu pour produire une quantité impressionnante de données, estimée à 20 000 téraoctets au cours de sa mission. Cette escalade s’inscrit dans une ère où l’observation spatiale génère une quantité astronomique d’informations : le James Webb Space Telescope, lancé en 2021, diffuse déjà 57 gigaoctets d’images spectaculaires chaque jour, tandis que le Vera C. Rubin Observatory, en planification pour cette année, prévoit de collecter 20 téraoctets de données nocturnes dans les montagnes du Chili. En comparaison, le télescope Hubble, autrefois référence en matière d’imagerie, ne transmet que 1 à 2 gigaoctets de données par jour, marquant une révolution dans la quantité d’informations exploitées par les astronomes.
Face à cette explosion de données, les astronomes se tournent vers les GPU pour traiter et analyser efficacement ces flux d’informations. Brant Robertson, astrophysicien à l’Université de Santa Cruz, a été témoin de cette mutation scientifique, candidate à repousser les limites de la recherche spatiale grâce aux techniques de calcul accéléré. Ces quinze dernières années, il a collaboré avec Nvidia pour appliquer les GPU à des simulations complexes, telles que l’étude des explosions de supernova, puis à l’analyse de vastes ensembles de données recueillies par de nouveaux observatoires. « L’évolution est spectaculaire : on passe d’études sur quelques objets à des analyses sur des ensembles de données volumineux grâce aux GPU, » explique-t-il à TechCrunch.
L’intelligence artificielle, via des modèles de deep learning, devient essentielle pour traiter cette masse de données, permettant de découvrir de nouveaux phénomènes et d’affiner nos théories sur l’univers.
Parmi ces innovations, Robertson et son ancien étudiant Ryan Hausen ont développé un modèle d’IA nommé Morpheus, capable d’examiner d’immenses bases de données pour identifier des galaxies. Leur première analyse des données de Webb a révélé une abondance inattendue de certains types de galaxies à disque, remettant en question certains aspects des théories cosmologiques. Aujourd’hui, Morpheus évolue vers une architecture basée sur des transformers, une technologie derrière la montée en puissance des grands modèles de langage, permettant d’étendre sa champ d’action et de multiplier par plusieurs avancées la vitesse d’analyse. Par ailleurs, Robertson travaille aussi sur des modèles d’IA générative pour améliorer la qualité des observations terrestres, perturbées par l’atmosphère — une avancée essentielle car il reste difficile de placer de grands miroirs en orbite malgré les progrès en propulsion.
Malgré ces avancées prometteuses, la course aux ressources GPU est rude. Robertson a mis en place un cluster au sein de l’Université de Santa Cruz financé par la NSF, mais celui-ci devient obsolète face à la demande croissante des chercheurs. La réduction de moitié du budget proposée par l’administration Trump pour la NSF pourrait freiner ces efforts, alors que le besoin de calcul intensif ne cesse d’augmenter. « La communauté scientifique doit être entrepreneuriale pour rester à la pointe, » souligne Robertson, insistant sur l’importance cruciale des GPU dans l’analyse de big data spatiaux et en IA. La compétition mondiale pour ces ressources vitales s’intensifie, reflétant la nécessité de soutenir l’innovation dans une époque où l’indispensable collecte et traitement des données déterminent la prochaine étape de notre compréhension de l’univers.
