Anthropic bringt eine verbesserte Version seines Einstiegs-LLM auf den Markt

Anthropic bringt eine verbesserte Version seines Einstiegs LLM auf den Markt

Anthropic, das von ehemaligen OpenAI-Führungskräften mitbegründete KI-Startup, hat dies getan freigegeben eine aktualisierte Version seines schnelleren und günstigeren Textgenerierungsmodells, das über eine API, Claude Instant, verfügbar ist.

Das aktualisierte Claude Instant, Claude Instant 1.2, vereint die Stärken des kürzlich angekündigten Flaggschiffmodells von Anthropic, Claude 2, und weist laut Anthropic „erhebliche“ Fortschritte in Bereichen wie Mathematik, Codierung, logisches Denken und Sicherheit auf. In internen Tests erreichte Claude Instant 1.2 bei einem Codierungs-Benchmark eine Punktzahl von 58,7 %, verglichen mit Claude Instant 1.1, das 52,8 % erreichte, und 86,7 % bei einer Reihe von Mathematikfragen gegenüber 80,9 % für Claude Instant 1.1.

„Claude Instant generiert längere, strukturiertere Antworten und folgt Formatierungsanweisungen besser“, schreibt Anthropic in einem Blogbeitrag. „Instant 1.2 zeigt auch Verbesserungen bei der Zitatextraktion, den Mehrsprachigkeitsfunktionen und der Beantwortung von Fragen.“

Laut Anthropic ist Claude Instant 1.2 außerdem weniger anfällig für Halluzinationen und resistenter gegen Jailbreaking-Versuche. Im Zusammenhang mit großen Sprachmodellen wie Claude liegt „Halluzination“ vor, wenn ein Modell Text generiert, der falsch oder unsinnig ist, während Jailbreaking eine Technik ist, die geschickt geschriebene Eingabeaufforderungen verwendet, um die Sicherheitsfunktionen zu umgehen, die ihre Ersteller großen Sprachmodellen hinzugefügt haben.

Und Claude Instant 1.2 verfügt über ein Kontextfenster, das genauso groß ist wie das von Claude 2 – 100.000 Token. Das Kontextfenster bezieht sich auf den Text, den das Modell berücksichtigt, bevor es zusätzlichen Text generiert, während Token Rohtext darstellen (z. B. würde das Wort „fantastic“ in die Token „fan“, „tas“ und „tic“ aufgeteilt). Claude Instant 1.2 und Claude 2 können etwa 75.000 Wörter analysieren, etwa die Länge von „The Great Gatsby“.

Im Allgemeinen ist es bei Modellen mit großen Kontextfenstern weniger wahrscheinlich, dass sie den Inhalt aktueller Gespräche „vergessen“.

Wie wir bereits berichtet haben, besteht das Ziel von Anthropic darin, einen „Algorithmus der nächsten Generation für KI-Selbstlernen“ zu entwickeln, wie es in einem Pitch Deck für Investoren beschrieben wird. Ein solcher Algorithmus könnte verwendet werden, um virtuelle Assistenten zu erstellen, die E-Mails beantworten, Recherchen durchführen und Kunst, Bücher und mehr generieren können – einige davon haben wir bereits mit GPT-4 und anderen großen Sprachmodellen kennengelernt.

Aber Claude Instant ist nicht dieser Algorithmus. Vielmehr soll es mit ähnlichen Einstiegsangeboten von OpenAI sowie Start-ups wie Cohere und AI21 Labs konkurrieren, die alle ihre eigenen textgenerierenden – und in einigen Fällen bildgenerierenden – KI-Systeme entwickeln und produzieren.

Bis heute hat Anthropic, das 2021 unter der Leitung des ehemaligen OpenAI-Vizepräsidenten für Forschung Dario Amodei gegründet wurde, 1,45 Milliarden US-Dollar bei einer Bewertung im einstelligen Milliardenbereich eingesammelt. Auch wenn sich das nach viel anhört, liegt es weit unter dem, was das Unternehmen für die Entwicklung seines geplanten Chatbots benötigt – 5 Milliarden US-Dollar in den nächsten zwei Jahren.

Anthropic behauptet, derzeit „Tausende“ Kunden und Partner zu haben, darunter Quora, das über seine abonnementbasierte generative KI-App Poe Zugriff auf Claude und Claude Instant bietet. Claude betreibt das kürzlich eingeführte DuckAssist-Tool von DuckDuckGo, das in Kombination mit ChatGPT von OpenAI direkte Suchanfragen für Benutzer beantwortet. Und bei Notion ist Claude Teil des technischen Backends für Notion AI, einem KI-Schreibassistenten, der in den Notion-Arbeitsbereich integriert ist.

tch-1-tech