OpenAI stellt GPT-4 Turbo und Feinabstimmungsprogramm für GPT-4 vor

Heute stellte OpenAI auf seiner allerersten Entwicklerkonferenz GPT-4 Turbo vor, eine verbesserte Version seines Flaggschiffmodells für textgenerierende KI, GPT-4, das nach Angaben des Unternehmens sowohl „leistungsstärker“ als auch kostengünstiger ist.

GPT-4 Turbo gibt es in zwei Versionen: eine, die ausschließlich Text analysiert, und eine zweite Version, die den Kontext von Text und Bildern versteht. Das Textanalysemodell ist ab heute über eine API in der Vorschau verfügbar, und OpenAI plant, beide „in den kommenden Wochen“ allgemein verfügbar zu machen.

Der Preis beträgt 0,01 US-Dollar pro 1.000 Eingabe-Tokens (~750 Wörter), wobei „Tokens“ Teile des Rohtexts darstellen – z. B. das Wort „fantastisch“ aufgeteilt in „fan“, „tas“ und „tic“) und 0,03 US-Dollar pro 1.000 Ausgabetoken. (Eingang Token sind Token, die in das Modell eingespeist werden Ausgabe (Tokens sind Tokens, die das Modell basierend auf den Eingabetokens generiert.) Die Preise für den Bildverarbeitungs-GPT-4 Turbo hängen von der Bildgröße ab. Laut OpenAI kostet beispielsweise die Übergabe eines Bildes mit 1080 x 1080 Pixeln an GPT-4 Turbo 0,00765 US-Dollar.

„Wir haben die Leistung optimiert, sodass wir GPT-4 Turbo zu einem dreifach günstigeren Preis für Eingabe-Token und einem zweifach günstigeren Preis für Ausgabe-Token im Vergleich zu GPT-4 anbieten können“, schreibt OpenAI in einem Blogeintrag Heute Morgen mit Tech geteilt.

GPT-4 Turbo bietet gegenüber GPT-4 mehrere Verbesserungen – eine davon ist eine neuere Wissensbasis, auf die man bei der Beantwortung von Anfragen zurückgreifen kann.

Wie alle Sprachmodelle ist GPT-4 Turbo im Wesentlichen ein statistisches Tool zur Vorhersage von Wörtern. Anhand einer enormen Anzahl von Beispielen, hauptsächlich aus dem Internet, lernte GPT-4 Turbo anhand von Mustern, einschließlich des semantischen Kontexts des umgebenden Textes, wie wahrscheinlich es ist, dass Wörter vorkommen. Wenn beispielsweise eine typische E-Mail mit dem Fragment „Ich freue mich auf …“ endet, könnte GPT-4 Turbo sie mit „… auf Rückmeldung“ vervollständigen.

GPT-4 wurde bis September 2021 anhand von Webdaten trainiert, der Wissensstichtag von GPT-4 Turbo ist jedoch April 2023. Das sollte bedeuten, dass Fragen zu aktuellen Ereignissen – zumindest zu Ereignissen, die vor dem neuen Stichtag stattfanden – nachgeben werden genauere Antworten.

GPT-4 Turbo verfügt außerdem über ein erweitertes Kontextfenster.

Das in Token gemessene Kontextfenster bezieht sich auf den Text, den das Modell berücksichtigt, bevor zusätzlicher Text generiert wird. Modelle mit kleinen Kontextfenstern neigen dazu, den Inhalt selbst sehr aktueller Gespräche zu „vergessen“, was dazu führt, dass sie vom Thema abschweifen – oft auf problematische Weise.

GPT-4 Turbo bietet ein Kontextfenster mit 128.000 Token – viermal so groß wie GPT-4 und das größte Kontextfenster aller kommerziell erhältlichen Modelle und übertrifft sogar Claude 2 von Anthropic. (Claude 2 unterstützt bis zu 100.000 Token; Anthropic behauptet, es zu sein experimentiert mit einem 200.000-Token-Kontextfenster, hat es aber noch nicht öffentlich veröffentlicht.) Tatsächlich entsprechen 128.000 Token etwa 100.000 Wörtern oder 300 Seiten, was als Referenz ungefähr der Länge von „Wuthering Heights“, „Gullivers Reisen“ und „Harry“ entspricht Potter und der Gefangene von Askaban.“

Und GPT-4 Turbo unterstützt einen neuen „JSON-Modus“, der sicherstellt, dass das Modell mit gültigen Antworten antwortet JSON — das offene Standarddateiformat und Datenaustauschformat. Das ist nützlich bei Web-Apps, die Daten übertragen, etwa solchen, die Daten von einem Server an einen Client senden, damit sie auf einer Webseite angezeigt werden können, sagt OpenAI. Andere, verwandte neue Parameter werden es Entwicklern ermöglichen, dass das Modell häufiger „konsistente“ Vervollständigungen zurückgibt und – für mehr Nischenanwendungen – Log-Wahrscheinlichkeiten für die wahrscheinlichsten von GPT-4 Turbo generierten Ausgabetoken.

„GPT-4 Turbo schneidet bei Aufgaben, die das sorgfältige Befolgen von Anweisungen erfordern, besser ab als unsere Vorgängermodelle, wie zum Beispiel beim Generieren bestimmter Formate (z. B. ‚Immer in XML antworten‘)“, schreibt OpenAI. „Und GPT-4 Turbo gibt mit größerer Wahrscheinlichkeit die richtigen Funktionsparameter zurück.“

GPT-4-Upgrades

OpenAI hat GPT-4 bei der Einführung von GPT-4 Turbo nicht vernachlässigt.

Heute startet das Unternehmen ein experimentelles Zugangsprogramm zur Feinabstimmung von GPT-4. Im Gegensatz zum Feinabstimmungsprogramm für GPT-3.5, dem Vorgänger von GPT-4, wird das GPT-4-Programm mehr Aufsicht und Anleitung durch OpenAI-Teams erfordern, sagt das Unternehmen – hauptsächlich aufgrund technischer Hürden.

„Vorläufige Ergebnisse deuten darauf hin, dass die GPT-4-Feinabstimmung im Vergleich zu den erheblichen Gewinnen, die mit der GPT-3.5-Feinabstimmung erzielt wurden, mehr Arbeit erfordert, um sinnvolle Verbesserungen gegenüber dem Basismodell zu erzielen“, schreibt OpenAI in dem Blogbeitrag.

An anderer Stelle gab OpenAI bekannt, dass es das Token-pro-Minute-Ratenlimit für alle zahlenden GPT-4-Kunden verdoppelt. Die Preise bleiben jedoch gleich und liegen bei 0,03 USD pro Eingabe-Token und 0,06 USD pro Ausgabe-Token (für das GPT-4-Modell mit einem Kontextfenster mit 8.000 Token) oder 0,06 USD pro Eingabe-Token und 0,012 USD pro Ausgabe-Token (für GPT-4 mit einem 32.000-Token-Kontextfenster). Token-Kontextfenster).

tch-1-tech