Das Streben von Anthropic nach besserer, besser erklärbarer KI bringt 580 Millionen US-Dollar ein – Tech

Soul Hackers 2 Erscheinungsdatum Ankuendigungstrailer enthuellt

Vor weniger als einem Jahr wurde Anthropic vom ehemaligen OpenAI VP of Research Dario Amodei mit der Absicht gegründet, im öffentlichen Interesse Forschung zu betreiben, um KI zuverlässiger und erklärbarer zu machen. Die Finanzierung in Höhe von 124 Millionen US-Dollar war damals überraschend, aber nichts hätte uns auf das Unternehmen vorbereiten können 580 Millionen Dollar gesammelt weniger als ein Jahr später.

„Mit dieser Spendenaktion werden wir die vorhersagbaren Skalierungseigenschaften von maschinellen Lernsystemen untersuchen und gleichzeitig die unvorhersehbaren Möglichkeiten genau untersuchen, auf denen Fähigkeiten und Sicherheitsprobleme im großen Maßstab auftreten können“, sagte Amodei in der Ankündigung.

Seine Schwester Daniela, mit der er die gemeinnützige Körperschaft mitbegründete, sagte, dass wir uns nach dem Aufbau des Unternehmens darauf konzentrieren, sicherzustellen, dass Anthropic über die Kultur und Governance verfügt, um weiterhin verantwortungsbewusst sichere KI-Systeme zu erforschen und zu entwickeln, während wir wachsen. ”

Da ist wieder dieses Wort – Maßstab. Denn das ist die Problemkategorie, zu deren Untersuchung Anthropic gegründet wurde: wie man die KI-Modelle besser versteht, die zunehmend in jeder Branche verwendet werden, da sie unsere Fähigkeit, ihre Logik und Ergebnisse zu erklären, übersteigen.

Das Unternehmen hat bereits mehrere Artikel veröffentlicht, die sich beispielsweise mit dem Reverse Engineering des Verhaltens von Sprachmodellen befassen, um zu verstehen, warum und wie sie die Ergebnisse erzielen, die sie erzielen. Etwas wie GPT-3, wahrscheinlich das bekannteste Sprachmodell da draußen, ist unbestreitbar beeindruckend, aber die Tatsache, dass seine internen Operationen im Wesentlichen selbst für seine Schöpfer ein Rätsel sind, hat etwas Besorgniserregendes.

Wie die neue Förderbekanntmachung es erklärt:

Der Zweck dieser Forschung besteht darin, die technischen Komponenten zu entwickeln, die erforderlich sind, um groß angelegte Modelle zu bauen, die bessere implizite Sicherheitsvorkehrungen haben und weniger Eingriffe nach dem Training erfordern, sowie die Werkzeuge zu entwickeln, die erforderlich sind, um einen weiteren Blick in diese Modelle zu werfen, um sicher zu sein, dass die Schutzmaßnahmen funktionieren tatsächlich.

Wenn Sie nicht verstehen, wie ein KI-System funktioniert, können Sie nur reagieren, wenn es etwas falsch macht – sagen wir, es zeigt Vorurteile bei der Erkennung von Gesichtern oder neigt dazu, Männer zu zeichnen oder zu beschreiben, wenn es nach Ärzten und CEOs gefragt wird. Dieses Verhalten ist in das Modell eingebrannt, und die Lösung besteht darin, seine Ausgaben zu filtern, anstatt zu verhindern, dass es diese falschen „Vorstellungen“ überhaupt hat.

Es ist eine Art grundlegender Wandel in der Art und Weise, wie KI aufgebaut und verstanden wird, und erfordert als solche große Gehirne und große Computer – von denen keines besonders billig ist. Zweifellos waren 124 Millionen Dollar ein guter Anfang, aber anscheinend waren die ersten Ergebnisse vielversprechend genug, um Sam Bankman-Fried dazu zu bringen, diese enorme neue Runde anzuführen, zusammen mit Caroline Ellison, Jim McClave, Nishad Singh, Jaan Tallinn und dem Center for Emerging Risk Forschung.

Es ist interessant, keinen der üblichen Deep-Tech-Investoren in dieser Gruppe zu sehen – aber natürlich strebt Anthropic nicht danach, Gewinne zu erzielen, was für VCs eine Art Deal-Breaker ist.

Hier können Sie sich über die neuesten Forschungsergebnisse von Anthropic auf dem Laufenden halten.

tch-1-tech