Die photonische KI-Hardware von Lightmatter ist bereit, mit einer neuen Finanzierung in Höhe von 154 Millionen US-Dollar zu glänzen

Die photonische KI Hardware von Lightmatter ist bereit mit einer neuen

Startup für Photonic Computing Lichtmaterie wagt sich mit einer Hardware-Software-Kombination auf den schnell wachsenden Markt für KI-Berechnungen und behauptet, sie werde der Branche dabei helfen, auf die nächste Stufe zu rücken – und obendrein eine Menge Strom zu sparen.

Die Chips von Lightmatter nutzen grundsätzlich den optischen Fluss, um Rechenprozesse wie Matrix-Vektor-Produkte zu lösen. Diese Mathematik ist das Herzstück vieler KI-Arbeiten und wird derzeit von darauf spezialisierten GPUs und TPUs ausgeführt, die jedoch herkömmliche Silizium-Gates und Transistoren verwenden.

Das Problem dabei ist, dass wir uns den Grenzen der Dichte und damit der Geschwindigkeit für eine bestimmte Wattzahl oder Größe nähern. Es werden immer noch Fortschritte gemacht, aber mit hohen Kosten und an den Grenzen der klassischen Physik. Die Supercomputer, die Trainingsmodelle wie GPT-4 ermöglichen, sind riesig, verbrauchen enorm viel Strom und produzieren viel Abwärme.

„Die größten Unternehmen der Welt stoßen bei der Energieversorgung an ihre Grenzen und stehen vor großen Herausforderungen hinsichtlich der Skalierbarkeit von KI. Herkömmliche Chips sprengen die Grenzen dessen, was zur Kühlung möglich ist, und Rechenzentren erzeugen immer größere Energie-Fußabdrücke. Die KI-Fortschritte werden sich erheblich verlangsamen, wenn wir keine neue Lösung in Rechenzentren bereitstellen“, sagte Nick Harris, CEO und Gründer von Lightmatter.

Einige haben prognostiziert, dass das Training eines einzelnen großen Sprachmodells mehr Energie verbrauchen kann, als 100 US-Haushalte in einem Jahr verbrauchen. Darüber hinaus gibt es Schätzungen, dass bis zum Ende des Jahrzehnts 10 bis 20 Prozent der weltweiten Gesamtleistung für KI-Inferenzen aufgewendet werden, sofern keine neuen Rechenparadigmen geschaffen werden.“

Lightmatter beabsichtigt natürlich, eines dieser neuen Paradigmen zu sein. Sein Ansatz ist zumindest potenziell schneller und effizienter, da er Arrays aus mikroskopisch kleinen optischen Wellenleitern verwendet, die es dem Licht ermöglichen, im Wesentlichen logische Operationen auszuführen, indem es einfach durch sie hindurchgeht: eine Art Analog-Digital-Hybrid. Da die Wellenleiter passiv sind, besteht der Hauptstrombedarf darin, das Licht selbst zu erzeugen und dann den Ausgang zu lesen und zu verarbeiten.

Ein wirklich interessanter Aspekt dieser Form des optischen Rechnens besteht darin, dass Sie die Leistung des Chips erhöhen können, indem Sie einfach mehr als eine Farbe gleichzeitig verwenden. Blau führt einen Vorgang aus, während Rot einen anderen ausführt – in der Praxis ist es jedoch eher so, dass eine Wellenlänge von 800 Nanometern einen und 820 einen anderen ausführt. Das ist natürlich nicht trivial, aber diese „virtuellen Chips“ können den Rechenaufwand auf dem Array enorm steigern. Doppelte Farben, doppelte Leistung.

Harris gründete das Unternehmen auf der Grundlage optischer Computerarbeiten, die er und sein Team am MIT durchgeführt hatten (das ihnen die entsprechenden Patente lizenziert), und schaffte es 2018, eine Seed-Runde in Höhe von 11 Millionen US-Dollar abzuschließen. Ein Investor sagte damals: „Das ist nicht der Fall.“ ein wissenschaftliches Projekt“, aber Harris gab 2021 zu, dass sie zwar „im Prinzip“ wussten, dass die Technologie funktionieren sollte, es aber verdammt viel zu tun gab, um sie einsatzbereit zu machen. Glücklicherweise erzählte er mir das im Zusammenhang mit der Tatsache, dass Investoren weitere 80 Millionen US-Dollar in das Unternehmen investierten.

Jetzt hat Lightmatter eine C-Runde in Höhe von 154 Millionen US-Dollar eingeworben und bereitet sich auf sein eigentliches Debüt vor. Es laufen mehrere Pilotprojekte mit dem kompletten Paket von Envise (Computerhardware), Passage (Verbindung, entscheidend für große Computeroperationen) und Idiom, einer Softwareplattform, die laut Harris Entwicklern des maschinellen Lernens eine schnelle Anpassung ermöglichen sollte.

Eine Lightmatter Envise-Einheit in Gefangenschaft.

„Wir haben einen Software-Stack entwickelt, der sich nahtlos in PyTorch und TensorFlow integrieren lässt. Der Arbeitsablauf für Entwickler von maschinellem Lernen ist von da an derselbe – wir nehmen die in diesen Industriestandardanwendungen integrierten neuronalen Netze und importieren unsere Bibliotheken, sodass der gesamte Code auf Envise läuft“, erklärte er.

Das Unternehmen lehnte es ab, konkrete Angaben zu Geschwindigkeitssteigerungen oder Effizienzsteigerungen zu machen, und da es sich um eine andere Architektur und Rechenmethode handelt, ist es schwierig, direkte Vergleiche anzustellen. Aber wir reden hier definitiv von einer Größenordnung, nicht von dürftigen 10 oder 15 Prozent. Interconnect wird ebenfalls verbessert, da es keinen Sinn macht, diese Verarbeitungsebene isoliert auf einer Platine zu haben.

Natürlich ist dies kein Allzweck-Chip, den Sie in Ihrem Laptop verwenden könnten. Es ist sehr spezifisch für diese Aufgabe. Aber es ist der Mangel an Aufgabenspezifität in dieser Größenordnung, der die KI-Entwicklung zu bremsen scheint – obwohl „Zurückhalten“ der falsche Begriff ist, da sie mit großer Geschwindigkeit voranschreitet. Diese Entwicklung ist jedoch äußerst kostspielig und schwerfällig.

Die Piloten befinden sich in der Betaphase und die Massenproduktion ist für 2024 geplant. Zu diesem Zeitpunkt dürften sie vermutlich über genügend Feedback und Reife verfügen, um in Rechenzentren eingesetzt zu werden.

Die Finanzierung dieser Runde erfolgte durch SIP Global, Fidelity Management & Research Company, Viking Global Investors, GV, HPE Pathfinder und bestehende Investoren.

tch-1-tech