OpenAI bringt sein o1-Argumentationsmodell in seine API ein – für bestimmte Entwickler

OpenAI bringt o1, sein „logisches“ KI-Modell, in seine API – zunächst jedoch nur für bestimmte Entwickler.

Ab Dienstag wird o1 mit der Einführung für Entwickler in der „Tier 5“-Nutzungskategorie von OpenAI beginnen, so das Unternehmen sagte. Um sich für Stufe 5 zu qualifizieren, müssen Entwickler mindestens 1.000 US-Dollar bei OpenAI ausgeben und über ein Konto verfügen, das seit der ersten erfolgreichen Zahlung älter als 30 Tage ist.

O1 ersetzt das o1-preview-Modell, das bereits in der API verfügbar war.

Im Gegensatz zu den meisten KI-Modellen überprüfen Argumentationsmodelle wie o1 die Fakten effektiv selbst und können so einige der Fallstricke vermeiden, die Modelle normalerweise zum Stolpern bringen. Der Nachteil besteht darin, dass es oft länger dauert, bis Lösungen gefunden werden.

Sie sind auch recht teuer – zum Teil, weil sie viele Rechenressourcen erfordern. OpenAI berechnet 15 US-Dollar für jeweils ca. 750.000 Wörter, die von der Analyse analysiert werden, und 60 US-Dollar für jeweils ca. 750.000 Wörter, die das Modell generiert. Das ist 6x die Kosten des neuesten „Non-Reareaning“-Modells von OpenAI, GPT-4o.

O1 in der OpenAI-API ist weitaus anpassbarer als o1-Preview, dank neuer Funktionen wie Funktionsaufruf (der die Verbindung des Modells mit externen Daten ermöglicht), Entwicklernachrichten (mit denen Entwickler dem Modell Anweisungen zu Ton und Stil geben können) und Bildanalyse. Zusätzlich zu strukturierte Ausgabeno1 verfügt außerdem über einen API-Parameter „reasoning_effort“, der die Kontrolle darüber ermöglicht, wie lange das Modell „denkt“, bevor es auf eine Anfrage antwortet.

OpenAI sagte, dass die Version von o1 in der API – und bald auch die KI-Chatbot-Plattform des Unternehmens, ChatGPT – eine „neue nachtrainierte“ Version von o1 sei. Im Vergleich zum o1-Modell, das vor zwei Wochen in ChatGPT veröffentlicht wurde, verbessert dieses Modell „o1-2024-12-17“ „Bereiche des Modellverhaltens basierend auf Feedback“, sagte OpenAI vage.

„Wir führen den Zugriff schrittweise aus und arbeiten gleichzeitig daran, den Zugriff auf zusätzliche Nutzungsstufen zu erweitern und die Ratenlimits zu erhöhen“, schrieb das Unternehmen in einem Blogbeitrag.

In einem Notiz Auf seiner Website sagte OpenAI, dass das neueste o1 „umfassendere und genauere Antworten“ liefern sollte, insbesondere auf Fragen im Zusammenhang mit der Programmierung und dem Geschäft, und dass die Wahrscheinlichkeit geringer ist, dass Anfragen fälschlicherweise abgelehnt werden.

In anderen entwicklungsbezogenen Nachrichten kündigte OpenAI am Dienstag neue Versionen seiner GPT-4o- und GPT-4o-Mini-Modelle als Teil der Realtime API an, der OpenAI-API zum Erstellen von Apps mit KI-generierten Sprachantworten mit geringer Latenz. Günstiger sind auch die neuen Modelle („gpt-4o-realtime-preview-2024-12-17“ und „gpt-4o-mini-realtime-preview-2024-12-17“), die sich durch eine verbesserte Dateneffizienz und Zuverlässigkeit auszeichnen zu verwenden, sagte OpenAI.

Apropos Echtzeit-API (kein Wortspiel beabsichtigt): Sie befindet sich noch in der Beta-Phase, verfügt jedoch über mehrere neue Funktionen, wie z. B. gleichzeitige Out-of-Band-Antworten, die es ermöglichen, Hintergrundaufgaben wie die Moderation von Inhalten auszuführen, ohne die Interaktionen zu unterbrechen. Die API unterstützt jetzt auch WebRTC, den offenen Standard zum Erstellen von Echtzeit-Sprachanwendungen für browserbasierte Clients, Smartphones und Geräte für das Internet der Dinge.

Es ist sicherlich kein Zufall, dass OpenAI das eingestellt hat Schöpfer von WebRTC, Justin Uberti, Anfang Dezember.

„Unsere WebRTC-Integration ist darauf ausgelegt, reibungslose und reaktionsschnelle Interaktionen unter realen Bedingungen zu ermöglichen, selbst bei variabler Netzwerkqualität“, schrieb OpenAI im Blog. „Es übernimmt die Audiokodierung, das Streaming, die Rauschunterdrückung und die Überlastungskontrolle.“

Im letzten seiner Updates am Dienstag hat OpenAI eine Feinabstimmung der Präferenzen für seine Feinabstimmungs-API vorgenommen; Bei der Präferenz-Feinabstimmung werden Paare von Modellantworten verglichen, um einem Modell beizubringen, zwischen bevorzugten und „nicht bevorzugten“ Antworten auf Fragen zu unterscheiden. Und das Unternehmen startete eine „Early Access“-Beta für offizielle Software-Entwickler-Kits in Go und Java.

tch-1-tech