Le modèle standard de l’univers repose sur six nombres seulement. Grâce à une nouvelle approche basée sur l’intelligence artificielle, des chercheurs du Flatiron Institute et leurs collègues ont extrait des informations cachées dans la distribution des galaxies pour estimer les valeurs de cinq de ces paramètres cosmologiques avec une précision incroyable.
Les résultats obtenus ont représenté une amélioration significative par rapport aux valeurs produites par les méthodes précédentes. Par rapport aux techniques conventionnelles utilisant les mêmes données de galaxies, l’approche a produit moins de la moitié de l’incertitude pour le paramètre décrivant l’agrégation de la matière de l’univers. La méthode basée sur l’IA concordait également étroitement avec les estimations des paramètres cosmologiques basées sur des observations d’autres phénomènes, tels que la lumière la plus ancienne de l’univers.
Les chercheurs présentent leur méthode, la Inférence des galaxies basée sur la simulation (ou SimBIG), dans une série d’articles récents, notamment une nouvelle étude publié le 21 août dans Astronomie de la nature.
Selon Shirley Ho, co-auteure de l’étude et chef de groupe au Centre d’astrophysique computationnelle (CCA) du Flatiron Institute à New York, il sera crucial de générer des contraintes plus strictes sur les paramètres tout en utilisant les mêmes données pour étudier tout, de la composition de la matière noire à la nature de l’énergie noire qui divise l’univers. C’est particulièrement vrai alors que de nouvelles études du cosmos seront mises en ligne au cours des prochaines années, dit-elle.
« Chacune de ces études coûte des centaines de millions, voire des milliards de dollars », explique Ho. « La principale raison d’être de ces études est que nous voulons mieux comprendre ces paramètres cosmologiques. Donc, si vous y réfléchissez d’un point de vue très pratique, ces paramètres valent des dizaines de millions de dollars chacun. Vous voulez la meilleure analyse possible pour extraire autant de connaissances que possible de ces études et repousser les limites de notre compréhension de l’univers. »
Les six paramètres cosmologiques décrivent la quantité de matière ordinaire, de matière noire et d’énergie noire dans l’univers ainsi que les conditions qui ont suivi le Big Bang, comme l’opacité de l’univers naissant lorsqu’il s’est refroidi et si la masse dans le cosmos est dispersée ou en gros amas. Les paramètres « sont essentiellement les « paramètres » de l’univers qui déterminent son fonctionnement à la plus grande échelle », explique Liam Parker, co-auteur de l’étude et analyste de recherche au CCA.
L’une des méthodes les plus utilisées par les cosmologistes pour calculer ces paramètres est l’étude du regroupement des galaxies de l’univers. Auparavant, ces analyses ne prenaient en compte que la distribution à grande échelle des galaxies.
« Nous n’avons pas pu descendre jusqu’à de petites échelles », explique ChangHoon Hahn, chercheur associé à l’université de Princeton et auteur principal de l’étude. « Depuis quelques années, nous savions qu’il y avait des informations supplémentaires, mais nous n’avions pas de moyen efficace de les extraire. »
Hahn a proposé un moyen d’exploiter l’IA pour extraire ces informations à petite échelle. Son plan comprenait deux phases. Tout d’abord, lui et ses collègues entraîneraient un modèle d’IA à déterminer les valeurs des paramètres cosmologiques en fonction de l’apparence d’univers simulés. Ensuite, ils montreraient à leur modèle des observations réelles de la distribution des galaxies.
Hahn, Ho, Parker et leurs collègues ont entraîné leur modèle en lui montrant 2 000 univers en forme de boîte issus de la suite de simulation Quijote développée par le CCA, chaque univers étant créé à l’aide de valeurs différentes pour les paramètres cosmologiques. Les chercheurs ont même fait apparaître les 2 000 univers comme des données générées par des relevés de galaxies, y compris des défauts de l’atmosphère et des télescopes eux-mêmes, pour donner au modèle un aspect réaliste.
« C’est un nombre important de simulations, mais c’est une quantité gérable », explique Hahn. « Sans l’apprentissage automatique, il en faudrait des centaines de milliers. »
En intégrant les simulations, le modèle a appris au fil du temps comment les valeurs des paramètres cosmologiques sont corrélées avec les différences à petite échelle dans le regroupement des galaxies, comme la distance entre les paires individuelles de galaxies. SimBIG a également appris à extraire des informations de l’agencement global des galaxies de l’univers en observant trois galaxies ou plus à la fois et en analysant les formes créées entre elles, comme de longs triangles étirés ou des triangles équilatéraux trapus.
Une fois le modèle formé, les chercheurs lui ont présenté 109 636 galaxies réelles mesurées par le Étude spectroscopique des oscillations baryoniques. Comme ils l’espéraient, le modèle a exploité les détails à petite et à grande échelle des données pour améliorer la précision de ses estimations des paramètres cosmologiques. Ces estimations étaient si précises qu’elles équivalaient à une analyse traditionnelle utilisant environ quatre fois plus de galaxies.
C’est important, explique Ho, car l’univers ne compte qu’un nombre limité de galaxies. En obtenant une plus grande précision avec moins de données, SimBIG peut repousser les limites du possible.
Selon Hahn, une application passionnante de cette précision sera la crise cosmologique connue sous le nom de tension de Hubble. Cette tension résulte d’estimations erronées de la constante de Hubble, qui décrit la rapidité avec laquelle tout ce qui se trouve dans l’univers se propage.
Pour calculer la constante de Hubble, il faut estimer la taille de l’univers à l’aide de « règles cosmiques ». Les estimations basées sur la distance des étoiles qui explosent, appelées supernovae, dans les galaxies lointaines, sont environ 10 % plus élevées que celles basées sur l’espacement des fluctuations de la lumière la plus ancienne de l’univers.
De nouvelles études, qui seront mises en ligne dans les prochaines années, permettront de mieux comprendre l’histoire de l’univers. En associant les données de ces études à celles de SimBIG, on pourra mieux comprendre l’étendue de la tension de Hubble et déterminer si cette discordance peut être résolue ou si elle nécessite un modèle révisé de l’univers, explique Hahn. « Si nous mesurons les quantités de manière très précise et pouvons affirmer avec certitude qu’il existe une tension, cela pourrait révéler une nouvelle physique sur l’énergie noire et l’expansion de l’univers », dit-il.
Hahn, Ho et Parker ont travaillé sur l’étude aux côtés de Michael Eickenberg du Center for Computational Mathematics (CCM) du Flatiron Institute, Pablo Lemos du CCA, Chirag Modi du CCA et du CCM, Bruno Régaldo-Saint Blancard du CCM, le président de la Fondation Simons, David Spergel, Jiamin Hou de l’Université de Floride, Elena Massara de l’Université de Waterloo et Azadeh Moradinezhad Dizgah de l’Université de Genève.
Plus d’informations :
ChangHoon Hahn et al, Contraintes cosmologiques issues du regroupement de galaxies non gaussien et non linéaire à l’aide du cadre d’inférence SimBIG, Astronomie de la nature (2024). DOI : 10.1038/s41550-024-02344-2
Fourni par la Fondation Simons