Klimamodelle können monatelang auf Supercomputern laufen – aber mein neuer Algorithmus kann sie zehnmal schneller machen

Klimamodelle gehören zu den komplexesten Softwareprogrammen, die jemals geschrieben wurden. Sie sind in der Lage, eine Vielzahl unterschiedlicher Teile des Gesamtsystems zu simulieren, beispielsweise die Atmosphäre oder den Ozean. Viele wurden über Jahrzehnte von Hunderten von Wissenschaftlern entwickelt und werden ständig erweitert und verfeinert. Sie können über eine Million Zeilen Computercode umfassen – Zehntausende gedruckte Seiten.

Es überrascht nicht, dass diese Modelle teuer sind. Die Simulationen nehmen Zeit in Anspruch, oft mehrere Monate, und die Supercomputer, auf denen die Modelle laufen, verbrauchen viel Energie. Aber ein neuer Algorithmus ich habe entwickelt verspricht, viele dieser Klimamodellsimulationen zehnmal schneller zu machen und könnte letztlich ein wichtiges Instrument im Kampf gegen den Klimawandel sein.

Ein Grund dafür, dass die Klimamodellierung so lange dauert, ist, dass einige der simulierten Prozesse von Natur aus langsam sind. Der Ozean ist ein gutes Beispiel. Es dauert einige tausend Jahre, bis Wasser von der Oberfläche in die Tiefsee und zurück zirkuliert (im Gegensatz dazu hat die Atmosphäre eine „Mischungszeit“ von Wochen).

Schon seit der Entwicklung der ersten Klimamodelle in den 1970er Jahren war den Wissenschaftlern klar, dass dies ein Problem darstellen würde. Um ein Modell zur Simulation des Klimawandels zu verwenden, muss es von Bedingungen ausgehen, die repräsentativ für die Zeit sind, bevor die Industrialisierung zur Freisetzung von Treibhausgasen in die Atmosphäre führte.

Um ein solch stabiles Gleichgewicht herzustellen, „drehen“ Wissenschaftler ihr Modell, indem sie es im Wesentlichen so lange laufen lassen, bis es sich nicht mehr ändert (das System ist so komplex, dass es wie in der realen Welt immer einige Schwankungen geben wird).

Ein Ausgangszustand mit minimaler „Drift“ ist unerlässlich, um die Auswirkungen menschengemachter Faktoren auf das Klima genau zu simulieren. Doch dank des Ozeans und anderer träger Komponenten kann dies selbst auf großen Supercomputern mehrere Monate dauern. Kein Wunder, dass Klimaforscher diesen Engpass als einen der größten Engpässe bezeichnen „große Herausforderungen“ ihres Fachgebiets.

Man kann das Problem nicht einfach mit mehr Computern angehen

Sie fragen sich vielleicht: „Warum nicht eine noch größere Maschine verwenden?“ Leider würde es nicht helfen. Vereinfacht ausgedrückt sind Supercomputer einfach Tausende einzelner Computerchips, von denen jeder über Dutzende Verarbeitungseinheiten (CPUs oder „Kerne“) verfügt, die über ein Hochgeschwindigkeitsnetzwerk miteinander verbunden sind.

Eine der Maschinen Ich verwende über 300.000 Kerne und kann fast 20 Billiarden Rechenoperationen pro Sekunde ausführen. (Offensichtlich wird es von Hunderten von Benutzern geteilt und jede einzelne Simulation beansprucht nur einen winzigen Bruchteil der Maschine.)

Ein Klimamodell macht sich dies zunutze, indem es die Oberfläche des Planeten in kleinere Regionen – Subdomänen – unterteilt, wobei die Berechnungen für jede Region gleichzeitig auf einer anderen CPU durchgeführt werden. Grundsätzlich gilt: Je mehr Subdomains Sie haben, desto weniger Zeit sollte die Berechnung in Anspruch nehmen.

Das stimmt bis zu einem gewissen Punkt. Das Problem besteht darin, dass die verschiedenen Subdomänen „wissen“ müssen, was in benachbarten Subdomänen passiert, was die Übertragung von Informationen zwischen Chips erfordert. Das ist viel langsamer als die Geschwindigkeit, mit der moderne Chips arithmetische Berechnungen durchführen können, was Informatiker „Bandbreitenbegrenzung“ nennen. (Jeder, der versucht hat, ein Video über eine langsame Internetverbindung zu streamen, weiß, was das bedeutet.)

Daher ist der Nutzen, mehr Rechenleistung in die Lösung des Problems zu investieren, immer geringer. Besonders Meeresmodelle leiden unter solch einer schlechten „Skalierung“.

Zehnmal schneller

Hier befindet sich der neue Computeralgorithmus, den ich entwickelt und veröffentlicht habe Wissenschaftliche Fortschritte kommt ins Spiel. Es verspricht, die Hochlaufzeit des Ozeans und anderer Komponenten von Erdsystemmodellen drastisch zu verkürzen. In Tests an typischen Klimamodellen war der Algorithmus im Durchschnitt etwa zehnmal schneller als aktuelle Ansätze und verkürzte die Zeit von vielen Monaten auf eine Woche.

Die Zeit und Energie, die Klimaforscher dadurch sparen könnten, ist an sich schon wertvoll. Aber die Möglichkeit, Modelle schnell zu erstellen, bedeutet auch, dass Wissenschaftler sie mit dem kalibrieren können, was unserer Kenntnis nach tatsächlich in der realen Welt passiert ist, wodurch ihre Genauigkeit verbessert oder die Unsicherheit in ihren Klimaprojektionen besser definiert werden kann. Spin-ups sind so zeitaufwändig, dass beides derzeit nicht machbar ist.

Der neue Algorithmus wird es uns auch ermöglichen, Simulationen räumlich detaillierter durchzuführen. Derzeit sagen uns Ozeanmodelle normalerweise nichts über Merkmale mit einer Breite von weniger als 1° in Längen- und Breitengrad (etwa 110 km am Äquator). Aber viele kritische Phänomene im Ozean treten in viel kleineren Maßstäben auf – von mehreren zehn Metern bis zu einigen Kilometern – und eine höhere räumliche Auflösung wird sicherlich zu genaueren Klimaprojektionen führen, beispielsweise zum Anstieg des Meeresspiegels, zu Sturmfluten und zur Intensität von Hurrikanen.

Wie es funktioniert

Wie so viele „neue“ Forschungen basiert sie auf einer alten Idee, in diesem Fall einer, die Jahrhunderte zurückreicht und auf den Schweizer Mathematiker Leonhard Euler zurückgeht. Unter der Bezeichnung „Sequenzbeschleunigung“ kann man sich das so vorstellen, dass vergangene Informationen genutzt werden, um auf eine „bessere“ Zukunft zu schließen.

Unter anderem wird es von Chemikern und Materialwissenschaftlern häufig zur Berechnung der Struktur von Atomen und Molekülen eingesetzt, ein Problem, das mehr als die Hälfte der Supercomputing-Ressourcen der Welt in Anspruch nimmt.

Sequenzbeschleunigung ist nützlich, wenn ein Problem iterativer Natur ist, genau das, was Spin-up eines Klimamodells ist: Sie speisen die Ausgabe des Modells als Eingabe in das Modell zurück. Spülen Sie und wiederholen Sie den Vorgang, bis die Ausgabe der Eingabe entspricht und Sie Ihre Gleichgewichtslösung gefunden haben.

In den 1960er Jahren entwickelte der Harvard-Mathematiker DG Anderson eine clevere Möglichkeit, mehrere vorherige Ausgaben in einer einzigen Eingabe zu kombinieren, sodass man mit weitaus weniger Wiederholungen des Verfahrens zur endgültigen Lösung gelangt. Ungefähr zehnmal weniger, als ich herausfand, als ich sein Schema auf das Spin-up-Problem anwendete.

Die Entwicklung eines neuen Algorithmus ist der einfache Teil. Andere dazu zu bringen, es zu nutzen, ist oft die größere Herausforderung. Daher ist es vielversprechend, dass das britische Met Office und andere Klimamodellierungszentren es ausprobieren.

Der nächste große IPCC-Bericht soll 2029 erscheinen. Das scheint noch in weiter Ferne zu liegen, aber angesichts der Zeit, die für die Entwicklung von Modellen und die Durchführung von Simulationen benötigt wird, laufen die Vorbereitungen bereits. Koordiniert von einer internationalen Zusammenarbeit namens Projekt zum Vergleich gekoppelter ModelleDiese Simulationen werden die Grundlage für den Bericht bilden. Es ist spannend zu glauben, dass mein Algorithmus und meine Software dazu beitragen könnten.

Mehr Informationen:
Samar Khatiwala, Effizientes Spin-Up von Erdsystemmodellen mittels Sequenzbeschleunigung, Wissenschaftliche Fortschritte (2024). DOI: 10.1126/sciadv.adn2839

Bereitgestellt von The Conversation

Dieser Artikel wurde erneut veröffentlicht von Die Unterhaltung unter einer Creative Commons-Lizenz. Lies das originaler Artikel.

ph-tech