Google arbeitet an Gemini – einem verbesserten und leistungsfähigen KI-Modell als PaLM 2, OpenAI vor kurzem gestartet GPT-4 Turbo – ein leistungsfähigeres großes Sprachmodell (LLM) als GPT-4, und jetzt Anthropisch hat eine erweiterte Version seines KI-Modells angekündigt, Claude 2.1.
Das von Google unterstützte Startup hat Claude 2.1 auf den Markt gebracht und unterstützt nun das Chat-Erlebnis von claude.ai. Es ist über die API in der Konsole verfügbar und soll Verbesserungen bei wichtigen Funktionen für Unternehmen bieten, darunter ein 200.000-Token-Kontextfenster, eine Reduzierung der Modellhalluzinationsraten und Systemaufforderungen.
„Wir aktualisieren auch unsere Preise, um die Kosteneffizienz für unsere Kunden modellübergreifend zu verbessern“, sagte Anthropic. Bemerkenswerterweise kündigte OpenAI auch die Verfügbarkeit von GPT-4 Turbo zu niedrigeren Preisen an.
Warum das Kontextfenster wichtig ist
Im Vergleich zu Claudes 200K-Kontextfenster verfügt OpenAIs GPT-4 Turbo über ein 128K-Kontextfenster und Metas LLaMA 2-Modell über ein 32K-Kontextfenster.
Jeder LLM verfügt über eine maximale Anzahl von Token oder Wortfragmenten, die er gleichzeitig verarbeiten kann. Dies wird als Kontextfenster bezeichnet. Anthropic sagte, dass 200.000 Token ungefähr 150.000 Wörtern oder über 500 Seiten Material entsprechen.
„Die Verarbeitung einer Nachricht mit einer Länge von 200 KB ist eine komplexe Aufgabe und eine Branchenneuheit. Obwohl wir uns freuen, diese leistungsstarke neue Funktion unseren Benutzern zur Verfügung zu stellen, kann Claude für Aufgaben, die normalerweise stundenlange menschliche Anstrengung erfordern würden, einige Minuten in Anspruch nehmen. „Wir gehen davon aus, dass die Latenz mit fortschreitender Technologie erheblich sinken wird“, sagte das Unternehmen.
Rückgang der Halluzinationsraten
Halluzination in Bezug auf LLMs ist die Fähigkeit eines Modells, falsche Informationen auszuspucken, diese aber so darzustellen, dass sie wahr erscheinen. Anthropic sagt, dass Claude 2.1 deutlich an Ehrlichkeit gewonnen hat, mit einer Verdoppelung falscher Aussagen im Vergleich zu unserem vorherigen Claude 2.0-Modell.
Darüber hinaus soll Claude 2.1 auch Verbesserungen beim Verständnis und der Zusammenfassung gebracht haben.
Das von Google unterstützte Startup hat Claude 2.1 auf den Markt gebracht und unterstützt nun das Chat-Erlebnis von claude.ai. Es ist über die API in der Konsole verfügbar und soll Verbesserungen bei wichtigen Funktionen für Unternehmen bieten, darunter ein 200.000-Token-Kontextfenster, eine Reduzierung der Modellhalluzinationsraten und Systemaufforderungen.
„Wir aktualisieren auch unsere Preise, um die Kosteneffizienz für unsere Kunden modellübergreifend zu verbessern“, sagte Anthropic. Bemerkenswerterweise kündigte OpenAI auch die Verfügbarkeit von GPT-4 Turbo zu niedrigeren Preisen an.
Warum das Kontextfenster wichtig ist
Im Vergleich zu Claudes 200K-Kontextfenster verfügt OpenAIs GPT-4 Turbo über ein 128K-Kontextfenster und Metas LLaMA 2-Modell über ein 32K-Kontextfenster.
Jeder LLM verfügt über eine maximale Anzahl von Token oder Wortfragmenten, die er gleichzeitig verarbeiten kann. Dies wird als Kontextfenster bezeichnet. Anthropic sagte, dass 200.000 Token ungefähr 150.000 Wörtern oder über 500 Seiten Material entsprechen.
„Die Verarbeitung einer Nachricht mit einer Länge von 200 KB ist eine komplexe Aufgabe und eine Branchenneuheit. Obwohl wir uns freuen, diese leistungsstarke neue Funktion unseren Benutzern zur Verfügung zu stellen, kann Claude für Aufgaben, die normalerweise stundenlange menschliche Anstrengung erfordern würden, einige Minuten in Anspruch nehmen. „Wir gehen davon aus, dass die Latenz mit fortschreitender Technologie erheblich sinken wird“, sagte das Unternehmen.
Rückgang der Halluzinationsraten
Halluzination in Bezug auf LLMs ist die Fähigkeit eines Modells, falsche Informationen auszuspucken, diese aber so darzustellen, dass sie wahr erscheinen. Anthropic sagt, dass Claude 2.1 deutlich an Ehrlichkeit gewonnen hat, mit einer Verdoppelung falscher Aussagen im Vergleich zu unserem vorherigen Claude 2.0-Modell.
Darüber hinaus soll Claude 2.1 auch Verbesserungen beim Verständnis und der Zusammenfassung gebracht haben.