Imbue sammelt 200 Millionen US-Dollar für die Entwicklung von KI-Modellen, die „robust argumentieren“ können

Imbue, das KI-Forschungslabor, das früher als Generally Intelligent bekannt war, hat dies getan erzogen 200 Millionen US-Dollar in einer Finanzierungsrunde der Serie B, die das Unternehmen mit über 1 Milliarde US-Dollar bewertet. Zu den Teilnehmern zählen das Astera Institute, Nvidia, Cruise-CEO Kyle Vogt und Notion-Mitbegründer Simon Last.

Durch die neue Tranche beläuft sich die Gesamteinnahmesumme von Imbue auf 220 Millionen US-Dollar und gehört damit zu den besser finanzierten KI-Startups der letzten Monate. Es liegt nur knapp hinter AI21 Labs (283 Millionen US-Dollar), dem in Tel Aviv ansässigen Unternehmen, das eine Reihe textgenerierender KI-Tools entwickelt, sowie hinter Anbietern generativer KI wie Cohere (435 Millionen US-Dollar) und Adept (415 Millionen US-Dollar).

„Diese neueste Finanzierung wird unsere Entwicklung von KI-Systemen beschleunigen, die schlussfolgern und programmieren können, sodass sie uns helfen können, größere Ziele auf der Welt zu erreichen“, schrieb Imbue in einem heute Morgen veröffentlichten Blogbeitrag. „Unser Ziel bleibt dasselbe: praktische KI-Agenten zu entwickeln, die größere Ziele erreichen und in der realen Welt sicher für uns arbeiten können.“

Imbue startete im vergangenen Oktober aus dem Verborgenen mit einem ehrgeizigen Ziel: die Grundlagen menschlicher Intelligenz zu erforschen, die Maschinen derzeit fehlen. Sein Plan, wie er damals Tech vorgestellt wurde, bestand darin, „Grundlagen“ in eine Reihe zu lösender Aufgaben umzuwandeln, verschiedene KI-Modelle zu entwerfen und ihre Fähigkeit zu testen, zu lernen, diese Aufgaben in komplexen 3D-Welten zu lösen, die vom Imbue-Team erstellt wurden .

Der Ansatz des Unternehmens scheint sich seitdem etwas geändert zu haben. Anstatt KI auf 3D-Welten loszulassen, sagt Imbue, dass das Unternehmen Modelle entwickelt, die es zunächst „intern nützlich“ findet, einschließlich Modellen, die programmieren können (à la GitHub Copilot und Amazon CodeWhisperer).

Viele Modelle können programmieren. Aber was Imbue’s auszeichnet, ist ihre Fähigkeit, „robust zu argumentieren“, behauptet das Unternehmen.

„Wir glauben, dass logisches Denken das Haupthindernis für wirksame KI-Agenten ist“, schrieb Imbue in dem Blogbeitrag. „Für wirksames Handeln ist solides Denken notwendig. Dazu gehört die Fähigkeit, mit Unsicherheit umzugehen, zu wissen, wann wir unsere Herangehensweise ändern müssen, Fragen zu stellen und neue Informationen zu sammeln, Szenarien durchzuspielen und Entscheidungen zu treffen, Hypothesen aufzustellen und zu verwerfen und ganz allgemein mit den komplizierten, schwer zu erfassenden Dingen umzugehen. die Natur der realen Welt vorhersagen.“

Imbue ist außerdem davon überzeugt, dass Code ein wichtiger Anwendungsfall ist, der über die Möglichkeit hinausgeht, seinem Team die Entwicklung von KI-Apps in großem Maßstab zu ermöglichen. In dem Blogbeitrag argumentiert das Unternehmen, dass Code das Denken verbessern kann und eine der effektiveren Möglichkeiten für Modelle ist, Aktionen auf einer Maschine durchzuführen.

„Ein Agent, der eine SQL-Abfrage schreibt, um Informationen aus einer Tabelle abzurufen, erfüllt eine Benutzeranfrage mit viel größerer Wahrscheinlichkeit als ein Agent, der versucht, dieselben Informationen ohne Verwendung von Code zusammenzustellen“, schrieb das Unternehmen. „Darüber hinaus hilft das Training am Code den Modellen, besser zu schlussfolgern; Training ohne Code scheint zu Modellen zu führen, die schlecht argumentieren.“

Es ist eine Philosophie, die der von Adept nicht unähnlich ist und darauf abzielt, KI zu entwickeln, die jeden Softwareprozess automatisieren kann. Google DeepMind hat auch Ansätze erforscht, wie man der KI beibringen kann, Computer zu steuern haben Eine KI beobachtet Tastatur- und Mausbefehle von Personen, die Computeraufgaben ausführen, bei denen sie „Anweisungen befolgen“, beispielsweise einen Flug buchen.

Imbue sagt, dass seine Modelle „maßgeschneidert“ für das Denken sind, in dem Sinne, dass sie auf Daten trainiert werden, um „gute Denkmuster zu verstärken“ und Techniken verwenden, die „weitaus mehr Rechenzeit während der Inferenzzeit“ aufwenden, um zu „robusten Schlussfolgerungen“ zu gelangen und Taten.“

Insbesondere wurden die von Imbue trainierten „sehr großen“ Modelle – Modelle mit über 100 Milliarden Parametern – so optimiert, dass sie bei den internen Benchmarks für die Argumentation eine gute Leistung erbringen. („Parameter“ sind die Teile eines Modells, die aus Trainingsdaten gelernt werden und im Wesentlichen die Fähigkeiten des Modells bei einem Problem definieren, wie z. B. das Generieren von Text oder Code.) Dieses Training wird auf einem von Nvidia mitgestalteten Rechencluster mit 10.000 durchgeführt GPUs aus Nvidias H100-Serie.

Imbue investiert außerdem in den Aufbau eigener KI- und maschineller Lerntools, wie KI-Prototypen für das Debuggen und visuelle Schnittstellen auf KI-Modellen. Und es führt Forschung zum Verständnis des Lernprozesses in großen Sprachmodellen durch.

Imbue hat nicht die Absicht, einen Großteil dessen, woran es derzeit arbeitet, in Produktion zu bringen. Sie betrachtet diese Tools und Modelle vielmehr als eine Möglichkeit, zukünftige, allgemeinere KI zu verbessern und die Grundlage für eine Plattform zu schaffen, die Menschen zum Erstellen ihrer eigenen benutzerdefinierten Modelle nutzen können.

„Wenn wir KI-Agenten bauen, bauen wir tatsächlich Computer, die unsere Ziele verstehen, proaktiv kommunizieren und im Hintergrund für uns arbeiten können“, fuhr Imbue in dem Blogbeitrag fort. „Letztendlich hoffen wir, Systeme herauszubringen, die es jedem ermöglichen, robuste, maßgeschneiderte KI-Agenten zu entwickeln, die jedem die produktive Kraft der KI zur Verfügung stellen … Diese neueste Finanzierung wird unsere Entwicklung von KI-Systemen beschleunigen, die schlussfolgern und programmieren können, damit sie uns helfen können.“ größere Ziele auf der Welt erreichen.“

tch-1-tech