Das Datenkennzeichnungs-Startup Scale AI bringt 1 Milliarde US-Dollar ein, die Bewertung verdoppelt sich auf 13,8 Milliarden US-Dollar

KI skalierendas Datenkennzeichnungsdienste für Unternehmen anbietet, die Modelle für maschinelles Lernen trainieren möchten, hat in der Serie F eine Milliarde US-Dollar von einer Reihe namhafter institutioneller und Unternehmensinvestoren eingesammelt, darunter Amazon und Meta.

Die Spendenaktion ist eine Mischung aus Primär- und Sekundärfinanzierung und die jüngste einer Reihe großer Risikokapitalinvestitionen in KI. Amazon hat kürzlich eine 4-Milliarden-Dollar-Investition in den OpenAI-Rivalen Anthropic abgeschlossen, und Unternehmen wie Mistral AI und Perplexity sind ebenfalls dabei, weitere Milliarden-Dollar-Runden zu hohen Bewertungen einzusammeln.

Vor dieser Runde hatte Scale AI in seiner achtjährigen Geschichte rund 600 Millionen US-Dollar eingesammelt, darunter eine Serie E im Wert von 325 Millionen US-Dollar im Jahr 2021, die einen Wert von rund 7 Milliarden US-Dollar hatte – doppelt so viel wie die Serie D im Jahr 2020. Drei Jahre später und trotzdem Trotz des Gegenwinds, der dazu führte, dass das Unternehmen im vergangenen Jahr 20 % seines Personals entließ, hat Scale AI jetzt einen Wert von 13,8 Milliarden US-Dollar – ein Zeichen der Zeit, da Investoren darum kämpfen, im KI-Goldrausch voranzukommen.

Die Serie F wurde von Accel geleitet, das auch die Serie A des Unternehmens leitete und an nachfolgenden Venture-Runden teilnahm.

Neben Amazon und Meta hat Scale AI eine Reihe neuer Investoren angezogen: Die Venture-Arme von Cisco, Intel, AMD und ServiceNow beteiligten sich ebenso wie DFJ Growth, WCM und der Investor Elad Gil. Viele seiner bestehenden Investoren kehrten ebenfalls zurück: Nvidia, Coatue, Y Combinator (YC), Index Ventures, Founders Fund, Tiger Global Management, Thrive Capital, Spark Capital, Greenoaks, Wellington Management und der ehemalige GitHub-CEO Nat Friedman.

Wir setzen auf die wachsende Bedeutung von Daten

Daten sind die Lebensader der künstlichen Intelligenz, weshalb es Unternehmen, die sich auf Datenmanagement und -verarbeitung spezialisiert haben, derzeit gut geht. Erst letzte Woche gab Weka bekannt, 140 Millionen US-Dollar bei einer Post-Money-Bewertung von 1,6 Milliarden US-Dollar gesammelt zu haben, um Unternehmen beim Aufbau von Datenpipelines für ihre KI-Anwendungen zu unterstützen.

Scale AI wurde 2016 gegründet und verbindet maschinelles Lernen mit „Human-in-the-Loop“-Überwachung, um große Datenmengen zu verwalten und zu kommentieren, was für das Training von KI-Systemen in verschiedenen Branchen, beispielsweise für autonome Fahrzeuge, von entscheidender Bedeutung ist.

Doch die meisten Daten sind unstrukturiert und KI-Systeme haben Schwierigkeiten, solche Daten sofort zu nutzen. Es muss beschriftet werden, was insbesondere bei großen Datensätzen ein ressourcenintensives Unterfangen ist. Scale AI stellt Unternehmen Daten zur Verfügung, die korrekt annotiert und für Trainingsmodelle vorbereitet wurden. Es ist auch auf verschiedene Branchen mit unterschiedlichen Anforderungen spezialisiert – ein Hersteller selbstfahrender Autos wird wahrscheinlich gekennzeichnete Daten von Kameras und Lidar benötigen, während Anwendungsfälle für die Verarbeitung natürlicher Sprache (NLP) annotierten Text benötigen.

Zu den Kunden des Unternehmens gehören Microsoft, Toyota, GM, Meta, das US-Verteidigungsministerium und seit August letzten Jahres der ChatGPT-Hersteller OpenAI, der Scale AI nutzt, um Unternehmen die Feinabstimmung seiner GPT-3.5-Textgenerierungsmodelle zu ermöglichen.

Scale AI sagt, dass es das neue Geld dazu verwenden wird, „die Fülle an Grenzdaten zu beschleunigen, die unseren Weg zur künstlichen allgemeinen Intelligenz ebnen werden“.

„Datenfülle ist nicht die Vorgabe – es ist eine Wahl“, sagte Alexandr Wang, CEO und Gründer von Scale AI, in einem Pressemitteilung. „Es erfordert, die besten Köpfe in den Bereichen Technik, Betrieb und KI zusammenzubringen. Unsere Vision ist eine Datenfülle, bei der wir über die Produktionsmittel verfügen, um Grenz-LLMs um viele Größenordnungen weiter zu skalieren. Wir sollten uns beim Erreichen von GPT-10 nicht auf Daten beschränken.“

tch-1-tech