Jua sammelt 16 Millionen US-Dollar, um ein grundlegendes KI-Modell für die Natur zu entwickeln, angefangen beim Wetter

Große KI-Modelle – die großen Bestände an Sprach-, Bild- und Audiodaten, die generative künstliche Intelligenzdienste antreiben – werden für die Entwicklung der KI ebenso wichtig wie Betriebssysteme für die Entwicklung von Smartphones: In gewisser Weise sind sie es auch , die wie die Plattformen des Weltraums aussehen (eine Idee Andere nudeln auch weiter). Nun rief ein Schweizer Startup an Jua nutzt dieses Paradigma mit dem Ziel, eine neue Grenze für den Einsatz von KI in der physischen Welt zu schaffen. Es wurden 16 Millionen US-Dollar eingesammelt, um ein im Wesentlichen großes „Physik“-Modell für die Natur zu bauen.

Das Unternehmen befindet sich noch in einem sehr frühen Stadium. Seine erste Anwendung wird die Modellierung und Vorhersage von Wetter- und Klimamustern sein, zunächst in Bezug auf deren Beziehung zu Akteuren in der Energiebranche. Der Start sei in den kommenden Wochen geplant, teilte das Unternehmen mit. Weitere Branchen, auf die das Modell abzielen soll, sind Landwirtschaft, Versicherungen, Transport und Regierung.

468 Capital und der Green Generation Fund leiten gemeinsam diese Seed-Runde für das in Zürich ansässige Startup, an der auch Promus Ventures, Kadmos Capital, die Gründer von Flix Mobility, Session.vc, Virtus Resources Partners, Notion.vc und InnoSuisse teilnehmen.

Andreas Brenner, CEO von Jua, der das Unternehmen zusammen mit CTO Marvin Gabler gründete, sagt, dass die zunehmende „Volatilität“ des Klimawandels und der Geopolitik zu einem Bedarf bei Organisationen geführt hat, die in der physischen Welt arbeiten – sei es in Industriebereichen wie Energie oder Landwirtschaft oder etwas anderes – um genauere Modellierung und Prognosen zu erhalten. Den USA zufolge war 2023 ein Jahr mit der höchsten Klimakatastrophe Nationale Zentren für Umweltinformationenwas zu Schäden in Höhe von mehreren zehn Milliarden Dollar führt: Es ist dieser aktuelle Stand der Dinge, der Unternehmen dazu veranlasst, Planungstools einzusetzen, ganz zu schweigen von besseren Vorhersagetools für Marktanalysten und andere, die diese Daten verwenden.

Dies ist in gewisser Weise kein neues Problem – noch nicht einmal ein Problem, das Technologen nicht bereits mit KI angegangen sind.

Die DeepMind-Abteilung von Google hat GraphCast entwickelt; Nvidia hat FourCastNet; Huawei hat Pangu, das letztes Jahr eine Wetterkomponente auf den Markt gebracht hat, die einen gesehen hat reges Interesse. Es laufen auch Projekte zur Entwicklung von KI-Modellen auf der Grundlage von Wetterdaten, um andere Naturereignisse genauer zu untersuchen, wie erst letzte Woche in hervorgehoben wurde dieser Bericht über ein Team, das versucht, neue Erkenntnisse über Vogelzugmuster zu gewinnen.

Juas Antwort darauf ist zweigeteilt. Erstens glaubt es, dass sein Modell besser ist als diese anderen, teilweise weil es mehr Informationen aufnimmt und größer ist – um ein 20-faches gegenüber GraphCast, wie es behauptet. Zweitens ist das Wetter nur der Ausgangspunkt für die Betrachtung eines breiteren Spektrums physikalischer Fragen und Antworten sowie Herausforderungen.

„Unternehmen müssen ihre Fähigkeiten verbessern, um auf all dies zu reagieren [climate] Volatilität“, sagte er. „Kurzfristig ist das also das Problem, das wir lösen. Aber wenn wir in die Zukunft blicken, bauen wir das erste grundlegende Modell für die natürliche Welt … Wir bauen im Wesentlichen ein Maschinenmodell, das Physik lernt … und das ist eine der Grundpfeiler für die Erreichung künstlicher allgemeiner Intelligenz, denn allein das Verstehen von Sprache ist nicht notwendig. t genug.“

Das Unternehmen hat seine ersten Produkte noch nicht auf den Markt gebracht, aber der Vertrauensvorschuss, den die Investoren wagen, ist nicht nur in einem Hype um alles, was mit KI zu tun hat, begründet.

Vor Jua leitete Gabler die Forschung bei Q.met, einem langjährigen Akteur im Bereich Wettervorhersage; Außerdem arbeitete er für die deutsche Regierung an der Deep-Learning-Technologie. Brenner war im Energiesektor tätig und gründete zuvor ein Startup für Flottenmanagementsoftware. Zusammengenommen vermitteln diese Erfahrungen nicht nur ein technisches Bewusstsein für die Probleme und mögliche Lösungen, sondern auch ein Verständnis aus erster Hand darüber, wie die Industrie dies erlebt.

Es zeigt auch einige frühe Arbeiten für Investoren und potenzielle Kunden, die ihren Input zu Daten erhalten, während das Produkt weiterentwickelt wird.

Ein Ziel scheint darin zu bestehen, einen neuen Ansatz für das Konzept zu verfolgen, was in die Vorhersagemodelle einfließt. Beim Aufbau eines Wettervorhersagemodells sagte Brenner beispielsweise, dass „die Verwendung von Wetterstationen ziemlich offensichtlich ist“. Aber darüber hinaus werden für die Modellerstellung „viel verrauschtere Daten“ aufgenommen, wie er es nennt, darunter aktuelle Satellitenbilder und Topographie sowie andere „neuere, neuere Daten“. „Der entscheidende Unterschied besteht darin, dass wir dieses End-to-End-System aufbauen, bei dem alle Daten, die früher in verschiedenen Schritten der Wertschöpfungskette verwendet wurden, jetzt alle in demselben Pool zusammengeführt werden“, erklärte er. Das Unternehmen gab an, über etwa 5 Petabyte (5.000 Terabyte) an Trainingsdaten zu verfügen, gegenüber etwa 45 Terabyte für GPT3 und (angeblich) 1 Petabyte für GPT4. (Beachten Sie jedoch, dass Sprachdaten möglicherweise weniger Daten benötigen als ein physisches Weltmodell.)

Ein weiteres Ziel – kein kleines – besteht darin, dass das Unternehmen versucht, etwas Effizienteres zu schaffen, um die Betriebskosten für sich selbst und die Kunden zu senken. „Unser System verbraucht 10.000 Mal weniger Rechenleistung als die Vorgängersysteme“, sagte Brenner.

Es ist bemerkenswert, dass Jua gerade jetzt auf dem Vormarsch ist und Mittel erhält.

Grundlegende Modelle entwickeln sich zum Eckpfeiler der Entwicklung der nächsten Generation von KI-Anwendungen. Daher verfügen die Unternehmen, die grundlegende Modelle erstellen und steuern, über großen Wert und potenzielle Macht.

Die größten Macher in diesem Bereich sind derzeit Unternehmen wie OpenAI, Google, Microsoft, Anthropic, Amazon und Meta: allesamt US-Unternehmen. Dies hat in anderen Teilen der Welt, beispielsweise in Europa, einige Aktivitäten angeregt, Heimmeister als Alternativen zu suchen und zu finanzieren. Bemerkenswert ist, dass 468 Capital auch Deutschland unterstützt Aleph Alpha, das – wie die grundlegenden Modellanbieter in den USA – ebenfalls große Sprachmodelle erstellt, jedoch offenbar in engerer Zusammenarbeit mit potenziellen Kunden. (Einer seiner Slogans lautet „Souveränität im KI-Zeitalter“).

„Andreas, Marvin und das Team bauen die weltweit erste Basis-KI für Physik und Natur auf, die in der Lage sein wird, aussagekräftige Erkenntnisse für eine Vielzahl von Branchen zu liefern, die von einem echten Verständnis der Natur abhängig sind, von Versicherungsunternehmen bis hin zu Chemie- und Energieversorgern , an Katastrophenplanungsteams, Organisationen in der Landwirtschaft, Fluggesellschaften und Hilfsorganisationen“, sagte Ludwig Ensthaler, Komplementär bei 468 Capital, in einer Erklärung.

Ein KI-Unternehmen, das sich zum Ziel gesetzt hat, die Auswirkungen des Klimawandels auf uns besser zu verstehen, eine bessere Katastrophenplanung zu unterstützen und vielleicht eines Tages sogar zu verstehen, wie das geht, hat eindeutig das Gefühl, ein „guter Kerl“ zu sein Umweltschäden abmildern. Und das Gesamtbild für ein Startup, das darauf abzielt, eine KI zu entwickeln, die die physische Welt verstehen kann, ist, dass diese möglicherweise auf eine viel breitere Palette von Herausforderungen in den Bereichen Materialwissenschaft, Biomedizin, Chemie und vielem mehr angewendet werden kann. Zusätzlich zur Machbarkeit des Modells selbst wirft die Aussicht jedoch auch viele Fragen auf, ähnlich wie bei anderen Arten von KI-Modellen, etwa in Bezug auf Sicherheit, Zuverlässigkeit und mehr, worüber Jua bereits nachdenkt, wenn auch nur rudimentär zur Zeit.

„Damit Modelle funktionieren und akzeptiert werden, muss man Konsistenz durchsetzen“, sagte Gabler. „Man muss sicherstellen, dass die Modelle die Physik tatsächlich von Grund auf lernen, um Probleme richtig zu lösen.“

tch-1-tech