Lamini, ein in Palo Alto ansässiges Startup, das eine Plattform aufbaut, um Unternehmen beim Einsatz generativer KI-Technologie zu unterstützen, hat 25 Millionen US-Dollar von Investoren eingesammelt, darunter Stanford-Informatikprofessor Andrew Ng.
Laminivor einigen Jahren von Sharon Zhou und Greg Diamos mitgegründet, hat ein interessantes Verkaufsargument.
Viele generative KI-Plattformen seien viel zu universell einsetzbar, argumentieren Zhou und Diamos, und hätten keine Lösungen und Infrastruktur, die auf die Bedürfnisse von Unternehmen zugeschnitten seien. Im Gegensatz dazu wurde Lamini von Grund auf für Unternehmen entwickelt und konzentriert sich auf die Bereitstellung hoher generativer KI-Genauigkeit und Skalierbarkeit.
„Die oberste Priorität fast aller CEOs, CIOs und CTOs besteht darin, generative KI in ihrem Unternehmen mit maximalem ROI zu nutzen“, sagte Zhou, CEO von Lamini, gegenüber Tech. „Aber während es für einen einzelnen Entwickler einfach ist, eine funktionierende Demo auf einem Laptop zu bekommen, ist der Weg zur Produktion überall mit Fehlern gespickt.“
Zhou brachte es auf den Punkt, dass viele Unternehmen ihre Frustration über die Hürden bei der sinnvollen Einführung generativer KI in ihren Geschäftsfunktionen zum Ausdruck brachten.
Laut einem März Umfrage Laut MIT Insights haben nur 9 % der Unternehmen generative KI in großem Umfang eingeführt, obwohl 75 % damit experimentiert haben. Die größten Hürden reichen von einem Mangel an IT-Infrastruktur und -Fähigkeiten bis hin zu schlechten Governance-Strukturen, unzureichenden Fähigkeiten und hohen Implementierungskosten. Auch Sicherheit ist ein wichtiger Faktor – in letzter Zeit Umfrage Laut Insight Enterprises gaben 38 % der Unternehmen an, dass die Sicherheit ihre Fähigkeit beeinträchtigt, generative KI-Technologie zu nutzen.
Was ist also Laminis Antwort?
Zhou sagt, dass „jeder Teil“ des Technologie-Stacks von Lamini für generative KI-Workloads im Unternehmensmaßstab optimiert wurde, von der Hardware bis zur Software, einschließlich der Engines, die zur Unterstützung der Modellorchestrierung, Feinabstimmung, Ausführung und Schulung verwendet werden. „Optimiert“ ist zugegebenermaßen ein vages Wort, aber Lamini leistet Pionierarbeit bei einem Schritt, den Zhou „Speicheroptimierung“ nennt. Dabei handelt es sich um eine Technik, mit der ein Modell auf Daten trainiert wird, sodass es Teile dieser Daten genau abruft.
Gedächtnisoptimierung kann möglicherweise Halluzinationen reduzieren, behauptet Zhou, oder Fälle, in denen ein Modell als Reaktion auf eine Anfrage Fakten erfindet.
„Speicheroptimierung ist ein Trainingsparadigma – genauso effizient wie Feinabstimmung, geht aber darüber hinaus – um ein Modell anhand proprietärer Daten zu trainieren, die wichtige Fakten, Zahlen und Zahlen enthalten, sodass das Modell eine hohe Präzision aufweist“, sagt Nina Wei, eine KI-Designerin bei Lamini, sagte mir per E-Mail, „und kann sich die genaue Übereinstimmung aller wichtigen Informationen merken und abrufen, anstatt zu verallgemeinern oder zu halluzinieren.“
Ich bin mir nicht sicher, ob ich das kaufe. „Memory Tuning“ scheint eher ein Marketingbegriff als ein akademischer zu sein; Es gibt keine Forschungsarbeiten darüber – zumindest keine, die ich auftreiben konnte. Ich überlasse es Lamini, den Beweis dafür zu erbringen, dass seine „Gedächtnisabstimmung“ besser ist als die anderen halluzinationsreduzierenden Techniken, die versucht werden/wurden.
Zum Glück für Lamini ist die Speicheroptimierung nicht das einzige Unterscheidungsmerkmal.
Laut Zhou kann die Plattform in hochsicheren Umgebungen betrieben werden, auch in Umgebungen mit Luftspalt. Mit Lamini können Unternehmen Modelle in einer Reihe von Konfigurationen ausführen, verfeinern und trainieren, von lokalen Rechenzentren bis hin zu öffentlichen und privaten Clouds. Und es skaliert Arbeitslasten „elastisch“ und erreicht über 1.000 GPUs, wenn die Anwendung oder der Anwendungsfall dies erfordert, sagt Zhou.
„Anreize sind derzeit auf dem Markt nicht auf Closed-Source-Modelle abgestimmt“, sagte Zhou. „Wir zielen auf Geben Sie die Kontrolle wieder in die Hände von mehr Menschen und nicht nur von wenigen, beginnend mit Unternehmen, denen die Kontrolle am wichtigsten ist und die am meisten durch ihre proprietären Daten, die jemand anderem gehören, zu verlieren haben.“
Die Mitbegründer von Lamini sind im KI-Bereich durchaus versiert. Sie haben sich auch getrennt mit Ng getroffen, was zweifellos seine Investition erklärt.
Zuvor war Zhou Dozentin an der Stanford University und leitete dort eine Gruppe, die sich mit generativer KI befasste. Bevor sie bei Ng in Informatik promovierte, war sie Produktmanagerin für maschinelles Lernen bei Google Cloud.
Diamos seinerseits war Mitbegründer von MLCommons, dem Ingenieurkonsortium, das sich der Erstellung von Standard-Benchmarks für KI-Modelle und -Hardware widmet, sowie der MLCommons-Benchmarking-Suite MLPerf. Er leitete auch die KI-Forschung bei Baidu, wo er mit Ng zusammenarbeitete, während dieser dort Chefwissenschaftler war. Diamos war auch Softwarearchitekt bei Nvidia CUDA Team.
Die Branchenkontakte der Mitbegründer scheinen Lamini bei der Mittelbeschaffung einen Vorsprung verschafft zu haben. Neben Ng haben auch Figma-CEO Dylan Field, Dropbox-CEO Drew Houston, OpenAI-Mitbegründer Andrej Karpathy und – seltsamerweise – Bernard Arnault, der CEO des Luxusgütergiganten LVMH, alle in Lamini investiert.
AMD Ventures ist ebenfalls ein Investor (was angesichts der Nvidia-Wurzeln von Diamos etwas ironisch ist), ebenso wie First Round Capital und Amplify Partners. AMD beteiligte sich schon früh und belieferte Lamini mit Rechenzentrumshardware, und heute läuft Lamini viele seiner Modelle auf AMD Instinct-GPUs, entgegen dem Branchentrend.
Lamini erhebt den hohen Anspruch, dass die Trainings- und Laufleistung seines Modells je nach Arbeitslast mit der vergleichbarer Nvidia-GPUs mithalten kann. Da wir nicht in der Lage sind, diese Behauptung zu überprüfen, überlassen wir dies Dritten.
Bis heute hat Lamini 25 Millionen US-Dollar in Seed- und Serie-A-Runden gesammelt (Amplify führte die Serie A an). Zhou sagt, das Geld werde in die Verdreifachung des 10-köpfigen Teams des Unternehmens, den Ausbau seiner Recheninfrastruktur und den Beginn der Entwicklung „tiefgreifender technischer Optimierungen“ gesteckt.
Es gibt eine Reihe unternehmensorientierter Anbieter generativer KI, die mit Aspekten der Lamini-Plattform konkurrieren könnten, darunter Technologiegiganten wie Google, AWS und Microsoft (über die OpenAI-Partnerschaft). Insbesondere Google, AWS und OpenAI haben in den letzten Monaten aggressiv um das Unternehmen geworben und Funktionen wie optimierte Feinabstimmung, private Feinabstimmung privater Daten und mehr eingeführt.
Ich habe Zhou nach den Kunden, dem Umsatz und der allgemeinen Markteinführungsdynamik von Lamini gefragt. Sie wollte zu diesem etwas frühen Zeitpunkt noch nicht viel verraten, sagte aber, dass AMD (über die AMD Ventures-Kooperation), AngelList und NordicTrack neben mehreren nicht genannten Regierungsbehörden zu den ersten (zahlenden) Nutzern von Lamini gehören.
„Wir wachsen schnell“, fügte sie hinzu. „Die größte Herausforderung besteht darin, die Kunden zu bedienen. Wir haben die eingehende Nachfrage nur bewältigt, weil wir überlastet waren. Angesichts des Interesses an generativer KI sind wir nicht repräsentativ für den gesamten Technologieabschwung – im Gegensatz zu unseren Konkurrenten in der gehypten KI-Welt haben wir Bruttomargen und einen Umsatz, der eher wie ein normales Technologieunternehmen aussieht.“
Mike Dauber, General Partner von Amplify, sagte: „Wir glauben, dass es eine enorme Chance für generative KI in Unternehmen gibt.“ Obwohl es eine Reihe von KI-Infrastrukturunternehmen gibt, ist Lamini das erste Unternehmen, das ich gesehen habe, das die Probleme des Unternehmens ernst nimmt und eine Lösung entwickelt, die Unternehmen dabei hilft, den enormen Wert ihrer privaten Daten zu erschließen und gleichzeitig selbst die strengsten Compliance-Vorgaben einzuhalten und Sicherheitsanforderungen.“