Les modèles climatiques peuvent fonctionner pendant des mois sur des superordinateurs, mais mon nouvel algorithme peut les rendre dix fois plus rapides

Les modèles climatiques font partie des logiciels les plus complexes jamais écrits, capables de simuler un grand nombre de parties différentes du système global, telles que l’atmosphère ou l’océan. Beaucoup ont été développés par des centaines de scientifiques au fil des décennies et sont constamment complétés et affinés. Ils peuvent contenir plus d’un million de lignes de code informatique, soit des dizaines de milliers de pages imprimées.

Sans surprise, ces modèles sont chers. Les simulations prennent du temps, souvent plusieurs mois, et les supercalculateurs sur lesquels les modèles sont exécutés consomment beaucoup d’énergie. Mais un nouvel algorithme j’ai développé promet de rendre bon nombre de ces simulations de modèles climatiques dix fois plus rapides et pourrait à terme constituer un outil important dans la lutte contre le changement climatique.

L’une des raisons pour lesquelles la modélisation climatique prend autant de temps est que certains des processus simulés sont intrinsèquement lents. L’océan en est un bon exemple. Il faut quelques milliers d’années pour que l’eau circule de la surface vers les profondeurs de l’océan et vice-versa (en revanche, l’atmosphère a un « temps de mélange » de plusieurs semaines).

Dès le développement des premiers modèles climatiques dans les années 1970, les scientifiques ont compris que cela allait poser un problème. Pour utiliser un modèle pour simuler le changement climatique, il faut partir de conditions représentatives d’avant que l’industrialisation n’entraîne le rejet de gaz à effet de serre dans l’atmosphère.

Pour produire un équilibre aussi stable, les scientifiques « font tourner » leur modèle en le laissant fonctionner jusqu’à ce qu’il cesse de changer (le système est si complexe que, comme dans le monde réel, certaines fluctuations seront toujours présentes).

Une condition initiale avec une « dérive » minimale est essentielle pour simuler avec précision les effets des facteurs d’origine humaine sur le climat. Mais à cause de l’océan et d’autres composants lents, cela peut prendre plusieurs mois, même sur de gros supercalculateurs. Il n’est pas étonnant que les climatologues aient qualifié ce goulet d’étranglement de « de grands défis » de leur domaine.

Je ne peux pas simplement ajouter plus d’ordinateurs au problème

Vous pourriez vous demander : « pourquoi ne pas utiliser une machine encore plus grande ? » Malheureusement, cela n’aiderait pas. Pour simplifier, les superordinateurs ne sont que des milliers de puces informatiques individuelles, chacune dotée de dizaines d’unités de traitement (CPU ou « cœurs ») connectées les unes aux autres via un réseau à haut débit.

Une des machines J’utilise plus de 300 000 cœurs et peut effectuer près de 20 quadrillions d’opérations arithmétiques par seconde. (De toute évidence, il est partagé par des centaines d’utilisateurs et toute simulation n’utilisera qu’une infime fraction de la machine.)

Un modèle climatique exploite cela en subdivisant la surface de la planète en régions plus petites (sous-domaines), les calculs pour chaque région étant effectués simultanément sur un processeur différent. En principe, plus vous disposez de sous-domaines, moins les calculs devraient prendre de temps.

C’est vrai jusqu’à un certain point. Le problème est que les différents sous-domaines doivent « savoir » ce qui se passe dans les sous-domaines adjacents, ce qui nécessite la transmission d’informations entre les puces. C’est beaucoup plus lent que la vitesse à laquelle les puces modernes peuvent effectuer des calculs arithmétiques, ce que les informaticiens appellent la « limitation de la bande passante ». (Quiconque a essayé de diffuser une vidéo via une connexion Internet lente saura ce que cela signifie.)

Il y a donc des rendements décroissants à consacrer davantage de puissance de calcul à ce problème. Les modèles océaniques souffrent particulièrement d’une « mise à l’échelle » aussi médiocre.

Dix fois plus rapide

C’est là que le nouvel algorithme informatique que j’ai développé et publié dans Avancées scientifiques entre en jeu. Il promet de réduire considérablement le temps de rotation de l’océan et d’autres composants des modèles du système terrestre. Lors de tests sur des modèles climatiques typiques, l’algorithme était en moyenne environ dix fois plus rapide que les approches actuelles, réduisant le temps de plusieurs mois à une semaine.

Le temps et l’énergie que cela pourrait faire économiser aux climatologues sont précieux en soi. Mais être capable de faire tourner rapidement les modèles signifie également que les scientifiques peuvent les calibrer par rapport à ce que nous savons réellement s’être produit dans le monde réel, améliorant ainsi leur précision ou permettant de mieux définir l’incertitude de leurs projections climatiques. Les spin-ups prennent tellement de temps qu’aucune d’entre elles n’est actuellement réalisable.

Le nouvel algorithme nous permettra également d’effectuer des simulations avec plus de détails spatiaux. Actuellement, les modèles océaniques ne nous disent généralement rien sur les entités inférieures à 1º de largeur en longitude et en latitude (environ 110 km à l’équateur). Mais de nombreux phénomènes critiques dans l’océan se produisent à des échelles bien plus petites – de quelques dizaines de mètres à quelques kilomètres – et une résolution spatiale plus élevée conduira certainement à des projections climatiques plus précises, par exemple l’élévation du niveau de la mer, les ondes de tempête et l’intensité des ouragans.

Comment ça fonctionne

Comme toute recherche « nouvelle », elle repose sur une idée ancienne, en l’occurrence une idée qui remonte à des siècles et qui remonte à l’époque du mathématicien suisse Leonhard Euler. Appelée « accélération de séquence », vous pouvez la considérer comme l’utilisation d’informations passées pour extrapoler vers un avenir « meilleur ».

Entre autres applications, il est largement utilisé par les chimistes et les scientifiques des matériaux pour calculer la structure des atomes et des molécules, un problème qui absorbe plus de la moitié des ressources mondiales de calcul intensif.

L’accélération de séquence est utile lorsqu’un problème est de nature itérative, exactement ce qu’est le lancement d’un modèle climatique : vous réinjectez la sortie du modèle comme entrée dans le modèle. Rincez et répétez jusqu’à ce que la sortie devienne égale à l’entrée et que vous ayez trouvé votre solution d’équilibre.

Dans les années 1960, le mathématicien de Harvard, DG Anderson, a mis au point un moyen astucieux de combiner plusieurs résultats précédents en une seule entrée afin d’obtenir la solution finale avec beaucoup moins de répétitions de la procédure. Environ dix fois moins que ce que j’ai trouvé lorsque j’ai appliqué son schéma au problème du spin-up.

Développer un nouvel algorithme est la partie la plus facile. Amener les autres à l’utiliser constitue souvent le plus grand défi. Il est donc prometteur que le Met Office britannique et d’autres centres de modélisation climatique l’essaient.

Le prochain rapport majeur du GIEC est attendu pour 2029. Cela semble loin mais étant donné le temps nécessaire pour développer des modèles et réaliser des simulations, les préparatifs sont déjà en cours. Coordonné par une collaboration internationale connue sous le nom de Projet de comparaison de modèles couplés, ce sont ces simulations qui constitueront la base du rapport. C’est passionnant de penser que mon algorithme et mon logiciel pourraient y contribuer.

Plus d’information:
Samar Khatiwala, Spin-up efficace des modèles du système terrestre utilisant l’accélération de séquence, Avancées scientifiques (2024). DOI : 10.1126/sciadv.adn2839

Fourni par La conversation

Cet article est republié à partir de La conversation sous licence Creative Commons. Lis le article original.

ph-tech