Anthropic bringt Claude auf den Markt, einen Chatbot, der mit ChatGPT von OpenAI konkurrieren soll

Die Kolosseen von Elden Ring oeffnen morgen endlich im kostenlosen

Anthropic, ein Startup, das von ehemaligen OpenAI-Mitarbeitern mitbegründet wurde, hat heute eine Art Rivale der viralen Sensation ChatGPT auf den Markt gebracht.

Die KI von Anthropic – ein Chatbot – mit dem Namen Claude kann angewiesen werden, eine Reihe von Aufgaben auszuführen, darunter das Durchsuchen von Dokumenten, das Zusammenfassen, Schreiben und Kodieren sowie das Beantworten von Fragen zu bestimmten Themen. In dieser Hinsicht ähnelt es ChatGPT von OpenAI. Aber Anthropic argumentiert, dass Claude „mit viel geringerer Wahrscheinlichkeit schädliche Ergebnisse produziert“, „leichter zu unterhalten“ und „lenkbarer“ ist.

„Wir denken dass Claude ist das richtige Tool für eine Vielzahl von Kunden und Anwendungsfällen“, sagte ein Anthropic-Sprecher per E-Mail gegenüber Tech. „Wir investieren seit mehreren Monaten in unsere Infrastruktur zum Servieren von Modellen und sind zuversichtlich, dass wir die Kundennachfrage erfüllen können.“

Nach einer Closed Beta Ende letzten Jahres hat Anthropic Claude im Stillen mit Startpartnern getestet, darunter Robin AI, AssemblyAI, Notion, Quora und DuckDuckGo. Seit heute Morgen sind zwei Versionen über eine API verfügbar, Claude und ein schnelleres, kostengünstigeres Derivat namens Claude Instant.

In Kombination mit ChatGPT betreibt Claude das kürzlich eingeführte DuckAssist-Tool von DuckDuckGo, das einfache Suchanfragen für Benutzer direkt beantwortet. Quora bietet Zugang zu Claude über seine experimentelle KI-Chat-App Poe. Und bei Notion ist Claude Teil des technischen Backends für Notion AI, einen KI-Schreibassistenten, der in den Notion-Arbeitsbereich integriert ist.

„Wir verwenden Claude, um bestimmte Teile eines Vertrags zu bewerten und eine neue, alternative Sprache vorzuschlagen, die für unsere Kunden freundlicher ist“, sagte Richard Robinson, CEO von Robin, in einer per E-Mail gesendeten Erklärung. „Wir haben festgestellt, dass Claude wirklich gut darin ist, Sprache zu verstehen – auch in technischen Bereichen wie der Rechtssprache. Es ist auch sehr sicher darin, komplexe Konzepte in einfachen Worten zu entwerfen, zusammenzufassen, zu übersetzen und zu erklären.“

Aber vermeidet Claude die Fallstricke von ChatGPT und anderen ähnlichen KI-Chatbot-Systemen? Moderne Chatbots sind notorisch anfällig für giftige, voreingenommene und anderweitig anstößige Sprache. (Siehe: Bing Chat.) Sie neigen auch zu Halluzinationen, was bedeutet, dass sie Fakten erfinden, wenn sie nach Themen gefragt werden, die über ihre Kernwissensgebiete hinausgehen.

Anthropic sagt, dass Claude – der wie ChatGPT keinen Zugang zum Internet hat und bis zum Frühjahr 2021 auf öffentlichen Webseiten geschult wurde – „darauf trainiert wurde, sexistische, rassistische und giftige Ergebnisse zu vermeiden“ sowie „keinen Menschen zu helfen sich an illegalen oder unethischen Aktivitäten beteiligen.“ Das ist im Bereich der KI-Chatbots selbstverständlich. Aber was Claude auszeichnet, ist eine Technik namens „konstitutionelle KI“, behauptet Anthropic.

„Constitutional AI“ zielt darauf ab, einen „prinzipienbasierten“ Ansatz zur Ausrichtung von KI-Systemen an menschlichen Absichten bereitzustellen, sodass KI ähnlich wie ChatGPT auf Fragen antworten kann, wobei ein einfacher Satz von Prinzipien als Leitfaden dient. Um Claude aufzubauen, begann Anthropic mit einer Liste von etwa 10 Prinzipien, die zusammengenommen eine Art „Verfassung“ bildeten (daher der Name „konstitutionelle KI“). Die Prinzipien wurden nicht veröffentlicht. Aber Anthropic sagt, dass sie auf den Konzepten der Wohltätigkeit (Maximierung positiver Auswirkungen), Nichtschaden (Vermeidung schädlicher Ratschläge) und Autonomie (Respekt der Wahlfreiheit) basieren.

Anthropic ließ dann ein KI-System – nicht Claude – die Prinzipien zur Selbstverbesserung anwenden, Antworten auf eine Vielzahl von Aufforderungen schreiben (z. B. „Verfasse ein Gedicht im Stil von John Keats“) und die Antworten gemäß der Verfassung überarbeiten. Die KI untersuchte mögliche Antworten auf Tausende von Eingabeaufforderungen und kuratierte diejenigen, die am ehesten mit der Verfassung übereinstimmten, die Anthropic in einem einzigen Modell destillierte. Dieses Modell wurde verwendet, um Claude zu trainieren.

Anthropic gibt jedoch zu, dass Claude seine Grenzen hat – von denen einige während der geschlossenen Beta ans Licht kamen. Claude ist angeblich schlechter in Mathe und ein schlechterer Programmierer als ChatGPT. Und es halluziniert, erfindet zum Beispiel einen Namen für eine Chemikalie, die es nicht gibt, und liefert zweifelhafte Anweisungen zur Herstellung von waffenfähigem Uran.

Es ist auch möglich, die eingebauten Sicherheitsfunktionen von Claude durch eine clevere Eingabeaufforderung zu umgehen, wie es bei ChatGPT der Fall ist. Ein Benutzer in der Beta konnte Claude dazu bringen Beschreibe, wie man Meth zu Hause herstellt.

„Die Herausforderung besteht darin, Modelle zu erstellen, die beide niemals halluzinieren, aber dennoch nützlich sind – Sie können in eine schwierige Situation geraten, in der die Modellfiguren eine gute Möglichkeit, niemals zu lügen, darin bestehen, überhaupt nichts zu sagen, also gibt es einen Kompromiss, an dem wir arbeiten an“, sagte der Anthropic-Sprecher. „Wir haben auch Fortschritte bei der Reduzierung von Halluzinationen gemacht, aber es gibt noch mehr zu tun.“

Zu den weiteren Plänen von Anthropic gehört es, Entwicklern die Möglichkeit zu geben, die Verfassungsprinzipien von Claude an ihre eigenen Bedürfnisse anzupassen. Es überrascht nicht, dass die Kundenakquise ein weiterer Schwerpunkt ist – Anthropic sieht seine Hauptnutzer als „Startups, die mutige technologische Wetten eingehen“, zusätzlich zu „größeren, etablierteren Unternehmen“.

„Wir verfolgen derzeit keinen breit angelegten direkten Verbraucheransatz“, fuhr der Anthropic-Sprecher fort. „Wir glauben, dass dieser engere Fokus uns dabei helfen wird, ein überlegenes, zielgerichtetes Produkt zu liefern.“

Zweifellos verspürt Anthropic eine Art Druck von Investoren, die Hunderte Millionen Dollar zurückzuerhalten, die in seine KI-Technologie gesteckt wurden. Das Unternehmen verfügt über erhebliche externe Unterstützung, darunter eine Tranche in Höhe von 580 Millionen US-Dollar von einer Gruppe von Investoren, darunter der in Ungnade gefallene FTX-Gründer Sam Bankman-Fried, Caroline Ellison, Jim McClave, Nishad Singh, Jaan Tallinn und das Center for Emerging Risk Research.

Zuletzt hat Google Anthropic 300 Millionen US-Dollar für eine 10-prozentige Beteiligung an dem Startup zugesagt. Unter den Bedingungen des Deals, der zuerst war gemeldet Laut der Financial Times stimmte Anthropic zu, Google Cloud zu seinem „bevorzugten Cloud-Anbieter“ zu machen, wobei die Unternehmen „co-develop[ing] KI-Computersysteme.“



tch-1-tech