VESSL AI sichert sich 12 Millionen US-Dollar für seine MLOps-Plattform, die darauf abzielt, die GPU-Kosten um bis zu 80 % zu senken

Da Unternehmen zunehmend künstliche Intelligenz in ihre Arbeitsabläufe und Produkte integrieren, Es besteht eine wachsende Nachfrage nach Tools und Plattformen die es einfacher machen, Modelle für maschinelles Lernen zu erstellen, zu testen und bereitzustellen. Diese Kategorie von Plattformen – im Volksmund als Machine Learning Operations, MLOps bekannt – ist bereits etwas überfüllt, mit Start-ups wie InfuseAI, Comet, Arrikto, Arize, Galileo, Tecton und Diveplane, ganz zu schweigen von den Angeboten etablierter Unternehmen wie Google Cloud, Azure und AWS.

Jetzt hat eine südkoreanische MLOps-Plattform angerufen VESSL AI versucht, sich eine Nische zu erobern, indem es sich auf die Optimierung der GPU-Kosten mithilfe einer hybriden Infrastruktur konzentriert, die On-Premise- und Cloud-Umgebungen kombiniert. Und das Startup hat jetzt in einer Finanzierungsrunde der Serie A 12 Millionen US-Dollar eingesammelt, um die Entwicklung seiner Infrastruktur zu beschleunigen, die sich an Unternehmen richtet, die maßgeschneiderte große Sprachmodelle (LLMs) und vertikale KI-Agenten entwickeln möchten.

Das Unternehmen hat bereits 50 Unternehmenskunden, darunter einige große Namen wie Hyundai; LIG Nex1, ein südkoreanischer Luft- und Raumfahrt- und Waffenhersteller; TMAP-Mobilitätein Mobility-as-a-Service-Joint-Venture zwischen Uber und dem koreanischen Telekommunikationsunternehmen SK Telecom; sowie die Tech-Startups Yanolja, Upstage, ScatterLab und Wrtn.ai. Das Unternehmen hat auch eine strategische Partnerschaft mit Orakel Und Google Cloud In den USA hat es über 2.000 Benutzer, sagte Mitbegründer und CEO Jaeman Kuss An gegenüber Tech.

An gründete das Startup im Jahr 2020 mit Jihwan Jay Chun (CTO), Intae Ryoo (CPO) und Yongseon Sean Lee (Tech Lead) – die Gründer waren zuvor bei Google, dem Handyspielunternehmen PUBG und einigen KI-Startups tätig –, um ein bestimmtes Problem zu lösen Schmerzpunkt, mit dem er sich bei der Entwicklung von Machine-Learning-Modellen bei einem früheren Medizintechnik-Startup auseinandersetzen musste: Der immense Arbeitsaufwand, der mit der Entwicklung und Nutzung von Machine-Learning-Tools verbunden ist.

Das Team stellte fest, dass es den Prozess durch den Einsatz eines hybriden Infrastrukturmodells effizienter – und vor allem kostengünstiger – gestalten konnte. Die MLOps-Plattform des Unternehmens nutzt im Wesentlichen eine Multi-Cloud-Strategie und Spot-Instanzen, um die GPU-Kosten um bis zu 80 % zu senken, bemerkte An und fügte hinzu, dass dieser Ansatz auch GPU-Mängel behebt und das Training, die Bereitstellung und den Betrieb von KI-Modellen, einschließlich großer, rationalisiert -Maßstabs-LLMs.

„Die Multi-Cloud-Strategie von VESSL AI ermöglicht die Nutzung von GPUs verschiedener Cloud-Dienstanbieter wie AWS, Google Cloud und Lambda“, sagte An. „Dieses System wählt automatisch die kostengünstigsten und effizientesten Ressourcen aus und senkt so die Kundenkosten erheblich.“

Die Plattform von VESSL bietet vier Hauptfunktionen: VESSL Run, das das KI-Modelltraining automatisiert; VESSL Serve, das die Bereitstellung in Echtzeit unterstützt; VESSL Pipelines, das Modelltraining und Datenvorverarbeitung integriert, um Arbeitsabläufe zu optimieren; und VESSL Cluster, das die GPU-Ressourcennutzung in einer Clusterumgebung optimiert.

Zu den Investoren der Serie-A-Runde, die die Gesamteinnahmen des Unternehmens auf 16,8 Millionen US-Dollar erhöht, gehören A Ventures, Ubiquitous Investment, Mirae Asset Securities, Sirius Investment, SJ Investment Partners, Woori Venture Investment und Shinhan Venture Investment. Das Startup beschäftigt 35 Mitarbeiter in Südkorea und in einem Büro in San Mateo in den USA

tch-1-tech