Eine wolkenlose Zukunft? Das Mysterium im Herzen der Klimaprognosen

Soul Hackers 2 Erscheinungsdatum Ankuendigungstrailer enthuellt

Wir hören viel darüber, wie der Klimawandel Land, Meer und Eis verändern wird. Aber wie wird es die Wolken beeinflussen?

„Niedrige Wolken könnten austrocknen und wie die Eisschilde schrumpfen“, sagt Michael Pritchard, Professor für Erdsystemwissenschaften an der UC Irvine. „Oder sie könnten dicker und reflektierender werden.“

Diese beiden Szenarien würden zu sehr unterschiedlichen zukünftigen Klimazonen führen. Und das, sagt Pritchard, ist Teil des Problems.

„Wenn Sie zwei verschiedene Klimamodelle fragen, wie die Zukunft aussehen wird, wenn wir viel mehr CO2 hinzufügen, erhalten Sie zwei sehr unterschiedliche Antworten. Und der Hauptgrund dafür ist die Art und Weise, wie Wolken in Klimamodelle einbezogen werden.“

Niemand bestreitet, dass Wolken und Aerosole – Ruß- und Staubstücke, die Wolkentröpfchen bilden – ein wichtiger Teil der Klimagleichung sind. Das Problem ist, dass diese Phänomene auf einer Längen- und Zeitskala auftreten, die die heutigen Modelle nicht annähernd reproduzieren können. Sie werden daher durch eine Vielzahl von Annäherungen in Modelle einbezogen.

Analysen globaler Klimamodelle zeigen übereinstimmend, dass Wolken die größte Quelle für Unsicherheit und Instabilität darstellen.

Community-Codes umrüsten

Während die fortschrittlichsten globalen Klimamodelle der USA Schwierigkeiten haben, sich einer globalen Auflösung von 4 Kilometern zu nähern, schätzt Pritchard, dass die Modelle eine Auflösung von mindestens 100 Metern benötigen, um die feinskaligen turbulenten Wirbel zu erfassen, die flache Wolkensysteme bilden – jeweils 40-mal besser aufgelöst Richtung. Laut Moores Gesetz könnte es bis 2060 dauern, bis die Rechenleistung zur Verfügung steht, um diese Detailgenauigkeit zu erfassen.

Pritchard arbeitet daran, diese eklatante Lücke zu schließen, indem er das Problem der Klimamodellierung in zwei Teile aufteilt: ein grobkörniges Planetenmodell mit geringerer Auflösung (100 km) und viele kleine Flecken mit einer Auflösung von 100 bis 200 Metern. Die beiden Simulationen laufen unabhängig voneinander und tauschen dann alle 30 Minuten Daten aus, um sicherzustellen, dass keine Simulation vom Kurs abkommt oder unrealistisch wird.

Über die Ergebnisse dieser Bemühungen berichtete sein Team im Journal of Advances in Modeling Earth Systems im April 2022.

Diese als „Multiscale Modeling Framework (MMF)“ bezeichnete Klimasimulationsmethode gibt es seit dem Jahr 2000 und ist seit langem eine Option innerhalb des Community Earth System Model (CESM)-Modells, das am National Center for Atmospheric Research entwickelt wurde. Die Idee erlebte in letzter Zeit eine Renaissance am Department of Energy, wo Forscher des Energy Exascale Earth System Model (E3SM) sie im Rahmen des Exascale Computing Project an neue Rechengrenzen getrieben haben. Pritchards Co-Autor Walter Hannah vom Lawrence Livermore National Laboratory hilft bei der Leitung dieser Bemühungen.

„Das Modell führt einen Endlauf um das schwierigste Problem herum – die Modellierung des gesamten Planeten“, erklärte Pritchard. „Es hat Tausende von kleinen Mikromodellen, die Dinge wie realistische flache Wolkenformationen erfassen, die nur in sehr hoher Auflösung entstehen.“

„Der Multiscale Modeling Framework-Ansatz ist auch ideal für die kommenden GPU-basierten Exascale-Computer des DOE“, sagte Mark Taylor, Chief Computational Scientist für das Energy Exascale Earth System Model (E3SM)-Projekt des DOE und Forschungswissenschaftler bei den Sandia National Laboratories. „Jede GPU hat die Leistung, um Hunderte von Mikromodellen auszuführen und gleichzeitig den Durchsatz des grobkörnigen Planetenmodells mit niedrigerer Auflösung zu erreichen.“

Pritchards Forschung und neuer Ansatz werden zum Teil durch den NSF-finanzierten Frontera-Supercomputer im Texas Advanced Computing Center (TACC) ermöglicht. Pritchard, der schnellste Universitäts-Supercomputer der Welt, kann seine Modelle auf Frontera in einer Zeit- und Längenskala ausführen, die nur auf einer Handvoll Systemen in den USA zugänglich ist, und ihr Potenzial für die Cloud-Modellierung testen.

„Wir haben einen Weg für einen Supercomputer entwickelt, um die Arbeit der Simulation der Wolkenphysik am besten auf verschiedene Teile der Welt aufzuteilen, die unterschiedliche Auflösungen verdienen … damit er viel schneller läuft“, schrieb das Team.

Die Simulation der Atmosphäre auf diese Weise bietet Pritchard die Auflösung, die erforderlich ist, um die physikalischen Prozesse und turbulenten Wirbel zu erfassen, die an der Wolkenbildung beteiligt sind. Die Forscher zeigten, dass der Multi-Modell-Ansatz keine unerwünschten Nebenwirkungen erzeugte, selbst wenn Patches mit unterschiedlichen wolkenauflösenden Gitterstrukturen aufeinander trafen.

„Wir waren froh, dass die Unterschiede gering waren“, sagte er. „Dies wird allen Nutzern von Klimamodellen, die eine hohe Auflösung an verschiedenen Orten fokussieren möchten, eine neue Flexibilität bieten.“

Das Entwirren und Wiederverbinden der verschiedenen Skalen des CESM-Modells war eine Herausforderung, die das Team von Pritchard meisterte. Eine andere bestand darin, das Modell neu zu programmieren, damit es die ständig wachsende Anzahl von Prozessoren nutzen konnte, die auf modernen Supercomputing-Systemen verfügbar sind.

Pritchard und sein Team – der UCI-Postdoktorand Liran Peng und der Forschungswissenschaftler Peter Blossey von der University of Washington – gingen dieses Problem an, indem sie die inneren Domänen der eingebetteten Cloud-Modelle des CESM in kleinere Teile zerlegten, die parallel mit MPI oder Message Passing Interface gelöst werden konnten – a Möglichkeit, Nachrichten zwischen mehreren Computern auszutauschen, auf denen ein paralleles Programm über verteilten Speicher ausgeführt wird – und diese Berechnungen so zu orchestrieren, dass viel mehr Prozessoren verwendet werden.

„Dies scheint bereits eine vierfache Beschleunigung mit großer Effizienz zu bieten. Das bedeutet, dass ich für meine Cloud-Auflösungsmodelle viermal so ehrgeizig sein kann“, sagte er. „Ich bin wirklich optimistisch, dass dieser Traum der Regionalisierung und MPI-Zerlegung zu einer völlig anderen Landschaft dessen führt, was möglich ist.“

Clouds für maschinelles Lernen

Einen weiteren vielversprechenden Ansatz sieht Pritchard im maschinellen Lernen, das sein Team seit 2017 erforscht. „Ich war sehr provoziert, wie performant ein dummes Blatt Neuronen diese partiellen Differentialgleichungen reproduzieren kann“, sagt Pritchard.

Pritchards Forschung und neuer Ansatz werden zum Teil durch den NSF-finanzierten Frontera-Supercomputer am TACC ermöglicht. Pritchard, der schnellste Universitäts-Supercomputer der Welt, kann seine Modelle auf Frontera in einem Zeit- und Längenmaßstab ausführen, der nur auf einer Handvoll Systemen in den USA zugänglich ist, und ihr Potenzial für die Cloud-Modellierung testen.

In einem Papier Im vergangenen Herbst eingereicht, beschreiben Pritchard, Hauptautor Tom Beucler von UCI und andere einen maschinellen Lernansatz, der atmosphärische Bedingungen selbst in Klimaregimen erfolgreich vorhersagt, in denen er nicht trainiert wurde, wo andere damit zu kämpfen hatten.

Dieses „klimainvariante“ Modell integriert physikalisches Wissen über Klimaprozesse in die maschinellen Lernalgorithmen. Ihre Studie – die Stampede2 am TACC, Cheyenne am National Center for Atmospheric Research und Expanse am San Diego Supercomputer Center verwendete – zeigte, dass die Methode des maschinellen Lernens eine hohe Genauigkeit über eine Vielzahl von Klimazonen und Regionen hinweg aufrechterhalten kann.

„Wenn hochauflösende Wolkenphysik durch maschinelles Lernen jemals erfolgreich sein sollte, würde dies alles darüber verändern, wie wir Klimasimulationen durchführen“, sagte Pritchard. „Mich interessiert, wie reproduzierbar und zuverlässig der maschinelle Lernansatz in komplexen Umgebungen gelingen kann.“

Pritchard ist dafür gut aufgestellt. Er ist Mitglied des Exekutivkomitees des NSF Center for Learning the Earth with Artificial Intelligence and Physics oder LEAP – ein neues Wissenschafts- und Technologiezentrum, das 2021 von der NSF finanziert wird und von seinem langjährigen Mitarbeiter zu diesem Thema, Professor Pierre Gentine, geleitet wird. LEAP bringt Klima- und Datenwissenschaftler zusammen, um den Unsicherheitsbereich bei der Klimamodellierung einzugrenzen und präzisere und umsetzbare Klimaprognosen bereitzustellen, die unmittelbare gesellschaftliche Auswirkungen haben.

„Die gesamte Forschung, die ich bisher durchgeführt habe, würde ich als ‚durchsatzbegrenzt‘ bezeichnen“, sagte Pritchard. „Meine Aufgabe war es, 10- bis 100-Jahres-Simulationen zu erstellen. Das schränkte alle meine Grid-Auswahlmöglichkeiten ein. Wenn es jedoch darum geht, kurze Simulationen zum Trainieren von Modellen für maschinelles Lernen zu erstellen, ist das eine andere Landschaft.“

Pritchard hofft, die Ergebnisse seiner eingebetteten 50-Meter-Modelle bald nutzen zu können, um mit dem Aufbau einer großen Trainingsbibliothek zu beginnen. „Es ist ein wirklich schöner Datensatz, um maschinelles Lernen zu betreiben.“

Aber wird KI schnell genug reifen? Zeit ist von entscheidender Bedeutung, um das Schicksal von Wolken herauszufinden.

„Wenn diese Wolken wie Eisschilde schrumpfen und dunklere Oberflächen freilegen, wird das die globale Erwärmung und alle damit verbundenen Gefahren verstärken. Aber wenn sie das Gegenteil von Eisschilden tun und sich verdicken, was sie könnten, ist das weniger gefährlich . Einige haben dies als ein Multi-Billionen-Dollar-Problem für die Gesellschaft eingeschätzt. Und dies wurde lange Zeit in Frage gestellt“, sagte Pritchard.

Simulation für Simulation, staatlich finanzierte Supercomputer helfen Pritchard und anderen, sich der Antwort auf diese kritische Frage zu nähern.

„Ich bin hin- und hergerissen zwischen echter Dankbarkeit für die nationale Computerinfrastruktur der USA, die uns so unglaublich dabei hilft, Klimamodelle zu entwickeln und zu betreiben“, sagte Pritchard, „und dem Gefühl, dass wir eine Ebene des Manhattan-Projekts mit neuen Bundesmitteln und behördenübergreifender Koordination brauchen dieses Problem tatsächlich lösen.“

Mehr Informationen:
Liran Peng et al, Load-Balancing Intense Physics Calculations to Embed Regionalized High-Resolution Cloud Resolving Models in the E3SM and CESM Climate Models, Journal of Advances in Modeling Earth Systems (2022). DOI: 10.1029/2021MS002841

Bereitgestellt vom Texas Advanced Computing Center

ph-tech