Nvidia übernimmt das KI-Workload-Management-Startup Run:ai

Nvidia ist erwerben Run:ai, ein in Tel Aviv ansässiges Unternehmen, das Entwicklern und Betriebsteams für einen nicht genannten Betrag die Verwaltung und Optimierung ihrer KI-Hardware-Infrastruktur erleichtert.

Ctech gemeldet Heute Morgen befanden sich die Unternehmen in „fortgeschrittenen Verhandlungen“, die dazu führen könnten, dass Nvidia mehr als 1 Milliarde US-Dollar für Run:ai zahlt. Offensichtlich verliefen die Verhandlungen reibungslos.

Eine mit der Angelegenheit vertraute Quelle teilte Tech mit, dass der genaue Preis 700 Millionen US-Dollar betrug.

Nvidia sagt, dass es die Produkte von Run:ai auch in naher Zukunft „unter dem gleichen Geschäftsmodell“ anbieten und in die Produkt-Roadmap von Run:ai als Teil der DGX Cloud AI-Plattform von Nvidia investieren wird, die Unternehmen Zugang zu Infrastruktur und Software ermöglicht Modelle für generative und andere Formen der KI zu trainieren. Darüber hinaus erhalten Nvidia DGX- und DGX Cloud-Kunden Zugriff auf die Funktionen von Run:ai für ihre KI-Workloads, insbesondere für generative KI-Bereitstellungen, so Nvidia.

„Run:ai arbeitet seit 2020 eng mit Nvidia zusammen und wir teilen die Leidenschaft, unseren Kunden dabei zu helfen, das Beste aus ihrer Infrastruktur herauszuholen“, sagte Omri Geller, CEO von Run:ai, in einer Erklärung. „Wir sind begeistert, Nvidia beizutreten und freuen uns darauf, unsere gemeinsame Reise fortzusetzen.“

Geller war vor einigen Jahren Mitbegründer von Run:ai zusammen mit Ronen Dar, nachdem die beiden zusammen an der Universität Tel Aviv bei Professor Meir Feder, dem dritten Mitbegründer von Run:ai, studiert hatten. Geller, Dar und Feder wollten eine Plattform aufbauen, die KI-Modelle in Fragmente „zerlegen“ könnte, die parallel auf der Hardware laufen, sei es vor Ort, in öffentlichen Clouds oder am Edge.

Während Run:AI relativ wenige direkte Konkurrenten hat, wenden andere Startups das Konzept der dynamischen Hardwarezuteilung auf KI-Workloads an. Grid.ai bietet beispielsweise Software an, die es Datenwissenschaftlern ermöglicht, KI-Modelle über GPUs, Prozessoren und mehr hinweg parallel zu trainieren.

Aber relativ früh gelang es Run:AI, einen großen Kundenstamm von Fortune-500-Unternehmen aufzubauen – was wiederum VC-Investitionen anzog. Vor der Übernahme hatte Run:ai 118 Millionen US-Dollar an Kapital von Geldgebern wie Insight Partners, Tiger Global, S Capital und TLV Partners eingesammelt.

In einem Blogbeitrag stellte Alexis Bjorlin, Nvidias Vizepräsident für DGX Cloud, fest, dass die KI-Bereitstellungen bei Kunden immer komplexer werden und dass der Wunsch bei Unternehmen wächst, ihre KI-Rechnerquellen effizienter zu nutzen.

„Die Verwaltung und Orchestrierung generativer KI, Empfehlungssysteme, Suchmaschinen und anderer Arbeitslasten erfordert eine ausgefeilte Planung, um die Leistung auf Systemebene und in der zugrunde liegenden Infrastruktur zu optimieren“, sagte er. „Die beschleunigte Computing-Plattform von Nvidia und die Plattform von Run:ai werden weiterhin ein breites Ökosystem von Lösungen von Drittanbietern unterstützen und den Kunden Auswahl und Flexibilität bieten. Zusammen mit Run:ai wird Nvidia seinen Kunden eine einzige Fabric ermöglichen, die überall auf GPU-Lösungen zugreift.“

tch-1-tech