Magieein KI-Startup, das Modelle zur Codegenerierung und Automatisierung einer Reihe von Softwareentwicklungsaufgaben entwickelt, hat von Investoren, darunter dem ehemaligen Google-CEO Eric Schmidt, eine große Tranche Bargeld eingesammelt.
In einem Blog-Beitrag Am Donnerstag gab Magic bekannt, dass es eine Finanzierungsrunde über 320 Millionen Dollar mit Beiträgen von Schmidt sowie Alphabets CapitalG, Atlassian, Elad Gil, Jane Street, Nat Friedman & Daniel Gross, Sequoia und anderen abgeschlossen habe. Mit der Finanzierung hat das Unternehmen insgesamt fast eine halbe Milliarde Dollar (465 Millionen Dollar) eingesammelt und katapultiert es in eine Gruppe besser finanzierter KI-Codierungs-Startups, zu deren Mitgliedern Codeium, Anysphere und Augment gehören. (Interessanterweise unterstützt Schmidt auch Augment.)
Magic gab heute außerdem eine Partnerschaft mit Google Cloud bekannt, um zwei „Supercomputer“ auf der Google Cloud Platform zu bauen. Einer – Magic-G4 – wird aus Nvidia H100-GPUs bestehen, während der andere – Magic G5 – aus Nvidias Blackwell-Chips der nächsten Generation bestehen wird. (GPUs werden dank ihrer Fähigkeit, viele Berechnungen parallel auszuführen, häufig zum Trainieren und Ausführen generativer KI-Modelle verwendet.)
Magic gibt an, dass das Ziel darin besteht, den letztgenannten Cluster im Laufe der Zeit auf „Zehntausende“ GPUs zu skalieren.
„Wir freuen uns, mit Google und Nvidia zusammenzuarbeiten, um unseren KI-Supercomputer der nächsten Generation auf Google Cloud zu bauen“, sagte Eric Steinberger, Mitbegründer und CEO von Magic, in einer Erklärung. „Nvidias [Blackwell] Das System wird die Inferenz- und Trainingseffizienz unserer Modelle erheblich verbessern und Google Cloud bietet uns die schnellste Skalierungsdauer sowie ein umfangreiches Ökosystem an Cloud-Diensten.“
Steinberger und Sebastian De Ro gründeten Magic 2022 gemeinsam. Steinberger sagt, er sei schon in jungen Jahren vom Potenzial der KI inspiriert worden; in der Highschool verkabelten er und seine Freunde die Computer der Schule, um Algorithmen für maschinelles Lernen zu trainieren. Diese Erfahrung legte den Grundstein für Steinbergers Informatikstudium und später für einen Job als KI-Forscher bei Meta.
Magic bietet KI-gesteuerte Tools, die Softwareentwicklern beim Schreiben, Überprüfen, Debuggen und Planen von Codeänderungen helfen. Die Tools funktionieren wie ein automatisierter Paarprogrammierer und versuchen, den Kontext von Codierprojekten zu verstehen und kontinuierlich mehr darüber zu lernen.
Viele Plattformen machen das Gleiche, darunter auch der Elefant im Raum, GitHub Copilot. Aber eine der Innovationen von Magic liegt in den ultralangen Kontextfenstern seiner Modelle.
Der Kontext oder das Kontextfenster eines Modells bezieht sich auf Eingabedaten (z. B. Text), die das Modell berücksichtigt, bevor es eine Ausgabe (z. B. zusätzlichen Text) generiert. Eine einfache Frage – „Wer hat die US-Präsidentschaftswahl 2020 gewonnen?“ – kann als Kontext dienen, ebenso wie ein Filmskript, eine Show oder ein Audioclip. Und wenn Kontextfenster größer werden, wächst auch die Größe der Dokumente (oder Codebasen, je nach Fall), die in sie passen.
Magic behauptet, dass sein neuestes Modell, LTM-2-mini, ein Kontextfenster von 100 Millionen Token hat. (Token sind unterteilte Rohdaten, wie die Silben „fan“, „tas“ und „tic“ im Wort „fantastic“.) 100 Millionen Token entsprechen etwa 10 Millionen Codezeilen – oder 750 Romanen. Und es ist bei weitem das größte Kontextfenster aller kommerziellen Modelle; das nächstgrößte sind Googles Gemini-Flaggschiffmodelle mit 2 Millionen Token.
Magic sagt, dass LTM-2-mini dank seines langen Kontexts in der Lage war, einen Passwortstärkemesser für ein Open-Source-Projekt zu implementieren und mithilfe eines benutzerdefinierten UI-Frameworks nahezu autonom einen Rechner zu erstellen.
Das Unternehmen ist derzeit dabei, eine größere Version dieses Modells zu trainieren.