ChatGPT Hersteller OpenAI aktualisiert seine Textgenerierungsmodelle und senkt gleichzeitig die Preise. Der Schritt scheint eine Reaktion auf den zunehmenden Wettbewerb im Bereich der generativen künstlichen Intelligenz (KI) zu sein. OpenAI hat die Veröffentlichung neuer Versionen von GPT-3.5-turbo und GPT-4 angekündigt. Bei den neuen Updates für GPT-4 handelt es sich um eine Funktion namens Funktionsaufruf, die es Entwicklern ermöglicht, Programmierfunktionen für GPT-3.5-turbo und GPT-4 zu beschreiben und die Modelle Code zum Ausführen dieser Funktionen erstellen zu lassen.
„Diese Modelle wurden so optimiert, dass sie sowohl erkennen, wann eine Funktion aufgerufen werden muss … als auch mit JSON reagieren, das der Funktionssignatur entspricht“, sagte OpenAI in einem Blogbeitrag. „Funktionsaufrufe ermöglichen es Entwicklern, strukturierte Daten zuverlässiger aus dem Modell zurückzugewinnen“, heißt es weiter.
Nach Angaben des Unternehmens enthält GPT-4-32k-0613 die gleichen Verbesserungen wie GPT-4-0613 sowie eine erweiterte Kontextlänge für ein besseres Verständnis größerer Texte. Es hieß auch, dass das Unternehmen weitere Personen von der Warteliste anrufen werde, um die Funktionen zu testen. „Mit diesen Updates werden wir in den kommenden Wochen viel mehr Leute von der Warteliste einladen, GPT-4 auszuprobieren, mit der Absicht, die Warteliste mit diesem Modell vollständig zu streichen“, heißt es in dem Blogbeitrag.
GPT-3.5-turbo-16k bietet angeblich die vierfache Kontextlänge von GPT-3.5-turbo zum doppelten Preis: 0,003 $ pro 1K-Eingabetoken und 0,004 $ pro 1K-Ausgabetoken. 16K-Kontext bedeutet, dass das Modell jetzt ca. 20 Textseiten in einer einzigen Anfrage unterstützen kann.
Bietet Datenschutzgarantie
Zum Thema Sicherheit heißt es in dem Blogbeitrag: „Alle diese Modelle verfügen über die gleichen Datenschutz- und Sicherheitsgarantien, die wir am 1. März eingeführt haben – Kunden sind Eigentümer aller aus ihren Anfragen generierten Ausgaben und ihre API-Daten werden nicht für Schulungen verwendet.“
„Diese Modelle wurden so optimiert, dass sie sowohl erkennen, wann eine Funktion aufgerufen werden muss … als auch mit JSON reagieren, das der Funktionssignatur entspricht“, sagte OpenAI in einem Blogbeitrag. „Funktionsaufrufe ermöglichen es Entwicklern, strukturierte Daten zuverlässiger aus dem Modell zurückzugewinnen“, heißt es weiter.
Nach Angaben des Unternehmens enthält GPT-4-32k-0613 die gleichen Verbesserungen wie GPT-4-0613 sowie eine erweiterte Kontextlänge für ein besseres Verständnis größerer Texte. Es hieß auch, dass das Unternehmen weitere Personen von der Warteliste anrufen werde, um die Funktionen zu testen. „Mit diesen Updates werden wir in den kommenden Wochen viel mehr Leute von der Warteliste einladen, GPT-4 auszuprobieren, mit der Absicht, die Warteliste mit diesem Modell vollständig zu streichen“, heißt es in dem Blogbeitrag.
GPT-3.5-turbo-16k bietet angeblich die vierfache Kontextlänge von GPT-3.5-turbo zum doppelten Preis: 0,003 $ pro 1K-Eingabetoken und 0,004 $ pro 1K-Ausgabetoken. 16K-Kontext bedeutet, dass das Modell jetzt ca. 20 Textseiten in einer einzigen Anfrage unterstützen kann.
Bietet Datenschutzgarantie
Zum Thema Sicherheit heißt es in dem Blogbeitrag: „Alle diese Modelle verfügen über die gleichen Datenschutz- und Sicherheitsgarantien, die wir am 1. März eingeführt haben – Kunden sind Eigentümer aller aus ihren Anfragen generierten Ausgaben und ihre API-Daten werden nicht für Schulungen verwendet.“