Während Technologieunternehmen mit der API von OpenAI spielen, glaubt dieses Startup, dass kleine, interne KI-Modelle gewinnen werden

Waehrend Technologieunternehmen mit der API von OpenAI spielen glaubt dieses

ZenML möchte der Klebstoff sein, der alle Open-Source-KI-Tools zusammenhält. Mit diesem Open-Source-Framework können Sie Pipelines erstellen, die von Datenwissenschaftlern, Ingenieuren für maschinelles Lernen und Plattformingenieuren zur Zusammenarbeit und Entwicklung neuer KI-Modelle verwendet werden.

Der Grund, warum ZenML interessant ist, besteht darin, dass es Unternehmen die Möglichkeit gibt, ihre eigenen privaten Modelle zu entwickeln. Natürlich werden Unternehmen wahrscheinlich keinen GPT 4-Konkurrenten bauen. Sie könnten jedoch kleinere Modelle bauen, die für ihre Bedürfnisse besonders gut geeignet sind. Und es würde ihre Abhängigkeit von API-Anbietern wie OpenAI und Anthropic verringern.

„Die Idee ist, dass, sobald die erste Welle des Hypes vorbei ist, bei der alle OpenAI oder Closed-Source-APIs verwenden, [ZenML] wird es den Leuten ermöglichen, ihren eigenen Stack aufzubauen“, sagte mir Louis Coppey, Partner bei der VC-Firma Point Nine.

Anfang dieses Jahres hat ZenML eine Verlängerung seiner Seed-Runde durchgeführt Punkt neun mit bestehendem Investor Kran auch mitmachen. Insgesamt hat das in München ansässige Startup seit seiner Gründung 6,4 Millionen US-Dollar eingesammelt.

Adam Probst und Hamza Tahir, die Gründer von ZenML, arbeiteten zuvor gemeinsam an einem Unternehmen, das ML-Pipelines für andere Unternehmen in einer bestimmten Branche baute. „Tag für Tag mussten wir Modelle für maschinelles Lernen erstellen und maschinelles Lernen in die Produktion bringen“, sagte mir Adam Probst, CEO von ZenML.

Ausgehend von dieser Arbeit begann das Duo mit der Entwicklung eines modularen Systems, das sich an unterschiedliche Umstände, Umgebungen und Kunden anpassen ließ, sodass dieselben Arbeiten nicht immer wieder wiederholt werden mussten – daraus entstand ZenML.

Gleichzeitig könnten sich Ingenieure, die mit maschinellem Lernen beginnen, durch den Einsatz dieses modularen Systems einen Vorsprung verschaffen. Das ZenML-Team nennt diesen Bereich MLOps – es ist ein bisschen wie DevOps, wird aber insbesondere auf ML angewendet.

„Wir verbinden die Open-Source-Tools, die sich auf bestimmte Schritte der Wertschöpfungskette konzentrieren, um eine Pipeline für maschinelles Lernen aufzubauen – alles auf der Rückseite der Hyperscaler, also alles auf der Rückseite von AWS und Google – und auch On-Prem-Lösungen.“ “, sagte Probst.

Das Hauptkonzept von ZenML sind Pipelines. Wenn Sie eine Pipeline schreiben, können Sie sie dann lokal ausführen oder mit Open-Source-Tools wie Airflow oder Kubeflow bereitstellen. Sie können auch verwaltete Cloud-Dienste wie EC2, Vertex Pipelines und Sagemaker nutzen. ZenML lässt sich auch in Open-Source-ML-Tools von Hugging Face, MLflow, TensorFlow, PyTorch usw. integrieren.

„ZenML ist so etwas wie das, was alles in einem einzigen einheitlichen Erlebnis zusammenführt – es ist Multi-Vendor, Multi-Cloud“, sagte ZenML-CTO Hamza Tahir. Es bringt Konnektoren, Beobachtbarkeit und Überprüfbarkeit in ML-Workflows.

Das Unternehmen veröffentlichte zunächst sein Framework auf GitHub als Open-Source-Tool. Das Team hat auf der Codierungsplattform mehr als 3.000 Sterne gesammelt. Auch ZenML bietet seit Kurzem an eine Cloud-Version mit verwalteten Servern – Auslöser für kontinuierliche Integrationen und Bereitstellung (CI/CD) sind bald verfügbar.

Einige Unternehmen nutzen ZenML für industrielle Anwendungsfälle, E-Commerce-Empfehlungssysteme, Bilderkennung im medizinischen Umfeld usw. Zu den Kunden zählen Rivian, Playtika und Leroy Merlin.

Private, branchenspezifische Modelle

Der Erfolg von ZenML wird davon abhängen, wie sich das KI-Ökosystem weiterentwickelt. Derzeit fügen viele Unternehmen hier und da KI-Funktionen hinzu, indem sie die API von OpenAI abfragen. In diesem Produkt gibt es jetzt einen neuen magischen Button, der große Textblöcke zusammenfassen kann. In diesem Produkt stehen Ihnen jetzt vorgefertigte Antworten für Kundensupportinteraktionen zur Verfügung.

„OpenAI wird eine Zukunft haben, aber wir glauben, dass der Großteil des Marktes eine eigene Lösung haben muss“ Adam Probst

Es gibt jedoch ein paar Probleme mit diesen APIs – sie sind zu anspruchsvoll und zu teuer. „OpenAI oder diese großen Sprachmodelle, die hinter verschlossenen Türen erstellt werden, sind für allgemeine Anwendungsfälle konzipiert – nicht für bestimmte Anwendungsfälle. Daher ist es derzeit viel zu geschult und für bestimmte Anwendungsfälle viel zu teuer“, sagte Probst.

„OpenAI wird eine Zukunft haben, aber wir glauben, dass der Großteil des Marktes eine eigene Lösung haben muss. Und deshalb ist Open Source für sie sehr attraktiv“, fügte er hinzu.

Sam Altman, CEO von OpenAI, glaubt auch, dass KI-Modelle keine Einheitslösung sein werden. „Ich denke, dass beide eine wichtige Rolle spielen. Wir sind an beidem interessiert und die Zukunft wird eine Mischung aus beidem sein“, sagte Altman, als er Anfang des Jahres während einer Frage-und-Antwort-Runde in Station F eine Frage zu kleinen, spezialisierten Modellen im Vergleich zu breiten Modellen beantwortete.

Der Einsatz von KI hat auch ethische und rechtliche Implikationen. Die Regulierung entwickelt sich immer noch stark in Echtzeit weiter, aber insbesondere die europäische Gesetzgebung könnte Unternehmen dazu ermutigen, KI-Modelle zu verwenden, die auf sehr spezifischen Datensätzen und auf sehr spezifische Weise trainiert werden.

„Gartner sagt, dass 75 % der Unternehmen von der Strategie abweichen [proofs of concept] „Wir werden im Jahr 2024 in Produktion gehen. Die nächsten ein oder zwei Jahre werden also wahrscheinlich einige der bahnbrechendsten Momente in der Geschichte der KI sein, in denen wir endlich mit der Produktion beginnen, wahrscheinlich mit einer Mischung aus Open-Source-Grundmodellen, die auf proprietären Daten fein abgestimmt sind“, sagte Tahir erzählte mir.

„Der Wert von MLOps besteht darin, dass wir glauben, dass 99 % der KI-Anwendungsfälle durch spezialisiertere, günstigere und kleinere Modelle vorangetrieben werden, die intern trainiert werden“, fügte er später im Gespräch hinzu.

Bildnachweis: ZenML

tch-1-tech