Da der Wettbewerb im Bereich der generativen KI immer härter wird, verbessert OpenAI seine textgenerierenden Modelle und senkt gleichzeitig die Preise.
Heute OpenAI angekündigt die Veröffentlichung neuer Versionen von GPT-3.5-turbo und GPT-4, wobei letzteres die neueste textgenerierende KI mit einer Funktion namens Funktionsaufruf ist. Wie OpenAI in a erklärt BlogeintragMit Funktionsaufrufen können Entwickler Programmierfunktionen für GPT-3.5-turbo und GPT-4 beschreiben und die Modelle Code erstellen lassen, um diese Funktionen auszuführen.
Funktionsaufrufe können beispielsweise dabei helfen, Chatbots zu erstellen, die Fragen durch den Aufruf externer Tools beantworten, natürliche Sprache in Datenbankabfragen umwandeln und strukturierte Daten aus Texten extrahieren. „Diese Modelle wurden so optimiert, dass sie sowohl erkennen, wann eine Funktion aufgerufen werden muss … als auch darauf reagieren.“ JSON das hält sich an die Funktionssignatur“, schreibt OpenAI. „Funktionsaufrufe ermöglichen es Entwicklern, strukturierte Daten zuverlässiger aus dem Modell zurückzugewinnen.“
Über den Funktionsaufruf hinaus führt OpenAI eine Variante von GPT-3.5-turbo mit einem stark erweiterten Kontextfenster ein. Kontextfenster, gemessen in Tokenoder rohe Textteile, bezieht sich auf den Text, den das Modell berücksichtigt, bevor zusätzlicher Text generiert wird. Modelle mit kleinen Kontextfenstern neigen dazu, den Inhalt selbst sehr aktueller Gespräche zu „vergessen“, was dazu führt, dass sie vom Thema abschweifen – oft auf problematische Weise.
Der neue GPT-3.5-Turbo bietet die vierfache Kontextlänge (16.000 Token) des Vanilla GPT-3.5-Turbo zum doppelten Preis – 0,003 USD pro 1.000 Eingabe-Token (d. h. in das Modell eingespeiste Token) und 0,004 USD pro 1.000 Ausgabe-Token ( Tokens, die das Modell generiert). OpenAI sagt, dass es etwa 20 Seiten Text auf einmal aufnehmen kann – deutlich weniger als die Hunderte von Seiten, die das Flaggschiffmodell des KI-Startups Anthropic verarbeiten kann. (OpenAI testet eine Version von GPT-4 mit einem 32.000-Token-Kontextfenster, jedoch nur in einer begrenzten Version.)
Positiv zu vermerken ist, dass OpenAI die Preise für GPT-3.5-turbo – das Original, nicht die Version mit dem erweiterten Kontextfenster – um 25 % senkt. Entwickler können das Modell jetzt für 0,0015 US-Dollar pro 1.000 Eingabe-Tokens und 0,002 US-Dollar pro 1.000 Ausgabe-Tokens verwenden, was etwa 700 Seiten pro Dollar entspricht.
Die Preise werden auch für text-embedding-ada-002 gesenkt, eines der beliebtesten Texteinbettungsmodelle von OpenAI. Texteinbettungen messen die Verwandtschaft von Textzeichenfolgen und werden häufig für die Suche (wobei die Ergebnisse nach Relevanz für eine Abfragezeichenfolge geordnet werden) und Empfehlungen (wobei Elemente mit verwandten Textzeichenfolgen empfohlen werden) verwendet.
Text-embedding-ada-002 kostet jetzt 0,0001 US-Dollar pro 1.000 Token, was einer Reduzierung von 75 % gegenüber dem vorherigen Preis entspricht. Laut OpenAI wurde die Reduzierung durch eine höhere Effizienz seiner Systeme ermöglicht – zweifellos ein wichtiger Schwerpunkt des Startups, wenn es um seine Ausgaben geht hunderte Millionen Dollar für Forschung und Entwicklung sowie Infrastruktur.
OpenAI hat signalisiert, dass nach der Veröffentlichung von GPT-4 Anfang März inkrementelle Aktualisierungen bestehender Modelle – keine massiven neuen Modelle von Grund auf – sein MO sind. Auf einer kürzlich von der Economic Times veranstalteten Konferenz bekräftigte CEO Sam Altman, dass OpenAI noch nicht mit dem Training des Nachfolgers von GPT-4 begonnen hat, was darauf hindeutet, dass das Unternehmen „noch viel Arbeit vor sich hat“, bevor es dieses Modell startet.