OpenAI führt den Advanced Voice Mode mit mehr Stimmen und einem neuen Look ein

OpenAI angekündigt Am Dienstag wird der Advanced Voice Mode (AVM) für einen erweiterten Kreis zahlender ChatGPT-Kunden eingeführt. Die Audiofunktion, die das Sprechen mit ChatGPT natürlicher macht, wird zunächst für Kunden der ChatGPT-Tarife „Plus“ und „Teams“ eingeführt. Enterprise- und Edu-Kunden erhalten ab nächster Woche Zugriff.

Im Zuge des Rollouts erhält AVM ein überarbeitetes Design. Die Funktion wird nun durch eine blaue animierte Kugel dargestellt, statt der animierten schwarzen Punkte, die OpenAI bei seiner Präsentation der Technologie im Mai präsentierte.

Benutzer erhalten in der ChatGPT-App neben dem Sprachsymbol ein Popup, wenn AVM für sie verfügbar gemacht wurde.

Advanced Voice wird im Laufe der Woche für alle Plus- und Team-Benutzer in der ChatGPT-App eingeführt.

Während Sie geduldig gewartet haben, haben wir benutzerdefinierte Anweisungen, Speicher, fünf neue Stimmen und verbesserte Akzente hinzugefügt.

Außerdem kann es in über 50 Sprachen „Entschuldigen Sie die Verspätung“ sagen. pic.twitter.com/APOqqhXtDg

— OpenAI (@OpenAI) 24. September 2024

ChatGPT erhält außerdem fünf neue Stimmen, die Benutzer ausprobieren können: Arbor, Maple, Sol, Spruce und Vale. Damit erhöht sich die Gesamtzahl der Stimmen von ChatGPT auf neun (fast so viele wie Googles Gemini Live), neben Breeze, Juniper, Cove und Ember. Ihnen wird vielleicht auffallen, dass alle diese Namen von der Natur inspiriert sind, was daran liegen könnte, dass der Sinn von AVM darin besteht, die Verwendung von ChatGPT natürlicher zu gestalten.

Eine Stimme, die in dieser Aufstellung fehlt, ist Sky, die Stimme, die OpenAI während seines Frühjahrsupdates vorstellte, was zu einer rechtlichen Drohung von Scarlett Johansson führte. Die Schauspielerin, die im Spielfilm „Her“ ein KI-System spielte, behauptete, dass Skys Stimme ihrer eigenen etwas zu ähnlich klang. OpenAI nahm Skys Stimme umgehend herunter und sagte, sie sei nie beabsichtigt gewesen, Johanssons Stimme zu ähneln, obwohl Mehrere Mitarbeiter verweisen in Tweets auf den Film zu der Zeit.

Eine weitere Funktion, die bei dieser Einführung fehlt, ist die Video- und Bildschirmfreigabe von ChatGPT, die OpenAI vor vier Monaten in seinem Frühjahrsupdate vorgestellt hat. Mit dieser Funktion soll GPT-4o visuelle und akustische Informationen gleichzeitig verarbeiten können. Während der Demo zeigte ein OpenAI-Mitarbeiter, wie Sie ChatGPT in Echtzeit Fragen zu Mathematik auf einem Blatt Papier vor Ihnen oder zu Code auf Ihrem Computerbildschirm stellen können. Derzeit bietet OpenAI keinen Zeitplan für die Einführung dieser multimodalen Funktionen an.

OpenAI gibt jedoch an, seit der Veröffentlichung des begrenzten Alphatests von AVM einige Verbesserungen vorgenommen zu haben. Die Sprachfunktion von ChatGPT kann Akzente jetzt angeblich besser verstehen und das Unternehmen sagt, dass die Gespräche flüssiger und schneller verlaufen. Bei unseren Tests mit AVM stellten wir fest, dass Störungen nicht ungewöhnlich waren, aber das Unternehmen behauptet, dass dies jetzt besser geworden sei.

OpenAI erweitert außerdem einige der Anpassungsfunktionen von ChatGPT auf AVM: „Benutzerdefinierte Anweisungen“, mit denen Benutzer die Antworten von ChatGPT individuell anpassen können, und „Speicher“, mit dem sich ChatGPT Konversationen merken kann, um später darauf zurückgreifen zu können.

Ein Sprecher von OpenAI sagt, AVM sei in mehreren Regionen noch nicht verfügbar, darunter in der EU, Großbritannien, der Schweiz, Island, Norwegen und Liechtenstein.



tch-1-tech