Neues KI-Modell kann hochpräzise Prognosen auch aus Daten mit niedriger Auflösung liefern

Die Fähigkeit, genaue Wettermodelle für Wettervorhersagen zu erstellen, ist für jeden Aspekt der amerikanischen Wirtschaft von entscheidender Bedeutung, von der Luftfahrt bis zur Schifffahrt. Bisher basierten Wettermodelle hauptsächlich auf Gleichungen im Zusammenhang mit der Thermodynamik und der Strömungsdynamik in der Atmosphäre. Diese Modelle sind enorm rechenintensiv und werden normalerweise auf großen Supercomputern ausgeführt.

Forscher von Unternehmen des privaten Sektors wie Nvidia und Google haben begonnen, große Modelle künstlicher Intelligenz (KI) für die Wettervorhersage zu entwickeln, sogenannte Basismodelle. Vor kurzem haben Wissenschaftler des Argonne National Laboratory des US-Energieministeriums (DOE) in enger Zusammenarbeit mit den Forschern Aditya Grover und Tung Nguyen von der University of California in Los Angeles begonnen, diesen alternativen Modelltyp zu untersuchen. Dieses Modell könnte in einigen Fällen sogar noch genauere Vorhersagen liefern als die bestehenden numerischen Wettervorhersagemodelle, und das bei einem Bruchteil des Rechenaufwands.

Einige dieser Modelle übertreffen die Vorhersagefähigkeit aktueller Modelle über sieben Tage hinaus und geben den Wissenschaftlern ein zusätzliches Fenster in das Wetter.

Basismodelle basieren auf der Verwendung von „Tokens“, kleinen Informationseinheiten, die ein KI-Algorithmus verwendet, um die physikalischen Vorgänge zu erlernen, die das Wetter bestimmen. Viele Basismodelle werden für die Verarbeitung natürlicher Sprache verwendet, also für die Verarbeitung von Wörtern und Ausdrücken.

Bei diesen großen Sprachmodellen sind diese Token Wörter oder Sprachfragmente, die das Modell nacheinander vorhersagt. Bei diesem neuen Wettervorhersagemodell sind die Token stattdessen Bilder – Diagrammausschnitte, die Dinge wie Luftfeuchtigkeit, Temperatur und Windgeschwindigkeit in verschiedenen Schichten der Atmosphäre darstellen.

„Anstatt sich für eine Textsequenz zu interessieren, betrachten Sie räumlich-zeitliche Daten, die in Bildern dargestellt werden“, sagte der Informatiker Sandeep Madireddy von Argonne. „Wenn Sie diese Bildausschnitte im Modell verwenden, haben Sie aufgrund der Tokenisierung eine Vorstellung von ihren relativen Positionen und ihrer Interaktion.“

Das Wissenschaftlerteam könne mit Daten in recht niedriger Auflösung immer noch genaue Vorhersagen erstellen, sagte der Argonne-Atmosphärenwissenschaftler Rao Kotamarthi.

„Die Philosophie der Wettervorhersage besteht seit Jahren darin, höhere Auflösungen für bessere Vorhersagen zu erreichen. Das liegt daran, dass man die Physik präziser darstellen kann, was aber natürlich mit einem hohen Rechenaufwand verbunden ist“, sagte er. „Aber wir stellen jetzt fest, dass wir mit der von uns verwendeten Methode tatsächlich in der Lage sind, auch bei grober Auflösung vergleichbare Ergebnisse wie bestehende hochauflösende Modelle zu erzielen.“

Während zuverlässige kurzfristige Wettervorhersagen mithilfe künstlicher Intelligenz ein kurzfristig erreichbares Ziel zu sein scheinen, stellt der Versuch, denselben Ansatz für die Klimamodellierung anzuwenden, bei der das Wetter im Zeitverlauf analysiert wird, eine zusätzliche Herausforderung dar.

„Theoretisch könnten Grundlagenmodelle auch für die Klimamodellierung verwendet werden. Allerdings gibt es für den privaten Sektor mehr Anreize, neue Ansätze bei der Wettervorhersage zu verfolgen, als bei der Klimamodellierung“, sagte Kotamarthi.

„Die Arbeit an grundlegenden Modellen für die Klimamodellierung wird wahrscheinlich weiterhin in der Zuständigkeit der nationalen Labors und Universitäten bleiben, die sich der Suche nach Lösungen im allgemeinen öffentlichen Interesse widmen.“

Ein Grund, warum die Modellierung des Klimas so schwierig ist, liegt darin, dass sich das Klima in Echtzeit ändert, sagt der Umweltwissenschaftler Troy Arcomano aus Argonne.

„Beim Klima sind wir von einem weitgehend stationären Zustand zu einem nicht-stationären Zustand übergegangen. Das bedeutet, dass sich alle unsere Klimastatistiken mit der Zeit aufgrund des zusätzlichen Kohlenstoffs in der Atmosphäre ändern. Dieser Kohlenstoff verändert auch den Energiehaushalt der Erde“, sagte er. „Es ist kompliziert, das numerisch zu berechnen, und wir suchen immer noch nach Möglichkeiten, KI einzusetzen.“

Die Einführung des neuen Exascale-Supercomputers Aurora von Argonne wird Forschern helfen, ein sehr großes KI-basiertes Modell zu trainieren, das mit sehr hohen Auflösungen arbeiten wird. „Wir brauchen eine Exascale-Maschine, um wirklich ein feinkörniges Modell mit KI erfassen zu können“, sagte Kotamarthi.

Ein auf der Studie basierender Beitrag erhielt beim Workshop den Best Paper Award „Den Klimawandel mit maschinellem Lernen bekämpfen.“ Der Workshop fand am 10. Mai in Wien, Österreich, in Verbindung mit der International Conference on Learning Representation 2024 statt.

Mehr Informationen:
Nguyen et al. Skalierungstransformatoren für eine geschickte und zuverlässige mittelfristige Wettervorhersage. Den Klimawandel mit maschinellem Lernen bekämpfen, ICLR (2024). s3.us-east-1.amazonaws.com/cli … iclr2024/7/paper.pdf

Zur Verfügung gestellt vom Argonne National Laboratory

ph-tech