Apple-Führungskräfte erläutern die neuen Funktionen der AirPods

Apple Fuehrungskraefte erlaeutern die neuen Funktionen der AirPods

AirPods bekamen nur eine passive Erwähnung während der Keynote auf der Apple-Veranstaltung. Das ist verständlich – das iPhone 15 und die Apple Watch Series 9 (und Ultra 2) standen im Mittelpunkt. Außerdem haben die Kopfhörer nicht die gleichen Hardware-Updates erhalten. Als eine Pressemitteilung Nach der Bestätigung des Ereignisses herausgegeben, ist die größte physische Änderung an den AirPods Pro 2 die (zugegebenermaßen lang erwartete) Einführung eines USB-C-Ladekoffers.

Man könnte meinen, die AirPods-Neuigkeiten seien damit zu Ende. Allerdings erhielten auch die High-End-Ohrhörer von Apple ein sinnvolles Software-Update in Form neuer Hörmodi, die in iOS 17 in beiden Versionen der AirPods Pro 2 (USB-C und Lightning) mit wenigen Fingertipps aufgerufen werden können.

Wenn die neuen Modelle angeschlossen sind, wischen Sie nach unten, um das Kontrollzentrum aufzurufen, und drücken Sie dann lange auf den Lautstärkeregler. Unten werden drei Modi zur Auswahl angezeigt: Geräuschunterdrückung, Gesprächswahrnehmung und räumliches Audio. Es sind die ersten beiden, die dieses Jahr die Liebe bekommen.

Adaptives Audio wurde den Optionen neben der standardmäßigen Geräuschunterdrückung, Transparenz und Aus hinzugefügt. Wenn Sie auf die neue Option tippen, wird sie mit einem Regenbogenhintergrund hervorgehoben. Die neue Funktion wechselt nahtlos in Echtzeit zwischen verschiedenen Einstellungen. Es geht darum, beide Enden des Spektrums auf eine einzige Einstellung zu bringen, sodass Sie mit Situationsbewusstsein durch eine überfüllte Straße gehen können, ohne die volle Lärmbelastung des vorbeifahrenden Müllwagens zu spüren.

Bildnachweis: Apfel

Obwohl Adaptive Audio einen ähnlichen Namen wie die letztjährige Funktion „Adaptive Transparenz“ trägt, bietet es ein umfassendes Spektrum an Modi, wobei sowohl Transparenz als auch Geräuschunterdrückung eine Rolle spielen.

„Adaptive Transparenz, die wir letztes Jahr angekündigt haben, muss wirklich schnell umgesetzt werden“, sagte Produktmarketingdirektor Eric Treski in einem Gespräch mit Tech. „Das passiert 40.000 Mal pro Sekunde. Das ist nicht nur die Überwachung, das ist auch die Reduzierung. Um dies schnell zu verhindern, muss dies in Echtzeit geschehen. Adaptive Audio ist im Laufe einiger Sekunden etwas langsamer, da es ein viel methodischerer Prozess sein soll, um zu wissen, was Sie gerade hören. Wir gehen von Adaptive Audio zu Transparenz über, also ist es – um es weniger störend und komfortabler zu machen – aus diesem Grund viel bewusster langsamer.“

Das System berücksichtigt auch, ob es sich bei dem Inhalt, den Sie hören, um Musik oder einen Podcast handelt. Dies wird anhand der Markierung von Apps wie Apple Music ermittelt. Ein Mikrofon misst auch die Lautstärke in Ihrem Ohr, um ein echtes Gefühl für die Lautstärke zu bekommen, die Sie wahrnehmen. „Denn wenn man nur die Lautstärke misst, von der man denkt, dass man sie jemandem in die Ohren spielt“, erklärt Ron Huang, Vizepräsident für Sensorik und Konnektivität, kann es je nach Trageweise und anderen Faktoren weniger genau sein.“

Huang teilt Tech mit, dass das Unternehmen darüber nachgedacht habe, das GPS Ihres Geräts zu nutzen, um den Geräuschpegel anhand des Standorts zu bestimmen. In realen Tests erwies sich die Methode jedoch als ineffizient.

„Während der frühen Erkundung von Adaptive Audio haben wir Sie grundsätzlich in ANC vs. Transparenz versetzt, je nachdem, wo Sie sich befinden“, sagt Huang. „Sie können sich vorstellen, dass das Telefon den AirPods einen Hinweis geben und sagen kann: „Hey, Sie sind im Haus“ und so weiter. Das ist ein Weg, dies zu tun, aber nach all unseren Erkenntnissen glauben wir nicht, dass dies der richtige Weg ist, und das haben wir auch nicht getan. Natürlich ist es in Ihrem Haus nicht immer ruhig und auf den Straßen ist es nicht immer laut. Wir haben beschlossen, dass die AirPods Ihre Umgebung in Echtzeit überwachen und diese Entscheidungen intelligent und selbstständig treffen, anstatt sich auf einen Standorthinweis vom Telefon zu verlassen.“

AirPods Pro 2 mit USB-C

Bildnachweis: Darrell Etherington

Die personalisierte Lautstärke ist ebenfalls ein wichtiger Teil des Adaptive Audio-Erlebnisses. Das System kombiniert einen Pool von Benutzerdaten mit personalisierten Präferenzen, um ein umfassenderes Bild der Hörgewohnheiten zu erstellen, gepaart mit „maschinellem Lernen, um Umgebungsbedingungen und Hörpräferenzen im Laufe der Zeit zu verstehen und das Medienerlebnis automatisch zu verfeinern“, so Apple. Es sind mehrere verschiedene Metriken enthalten.

„Wir haben Zehntausende Stunden unterschiedlicher Daten genutzt – verschiedene Benutzer hörten unterschiedliche Inhalte und mit unterschiedlichen Hintergrundgeräuschen – um wirklich zu verstehen, welche Hörvorlieben unterschiedlich sind und was Ablenker und Aggressoren aus Geräuschsicht sind, um Ihre Inhalte wirklich klar zu halten“, sagte Huang Anzeigen. „Wir merken uns auch Ihre persönlichen Vorlieben. Geben Sie eine Art Umgebung an, wie viel Lärm es dort gibt, wie laut Sie Ihre Inhalte normalerweise hören, und erinnern Sie sich daran. Wir fügen es unserem maschinellen Lernmodell hinzu, damit es für Sie noch besser funktioniert.“

Der andere große Modus, der mit iOS 17 eingeführt wurde, ist Conversational Awareness, der die Lautstärke des Tracks verringert, wenn Sie mit dem Sprechen beginnen. Der Effekt wird jedoch nicht durch externe Stimmen ausgelöst, sondern nur durch die Träger. Apple ist in der Lage, diesen Effekt zu erreichen, ohne integrierte Sprachprofile beizubehalten. Stattdessen nutzt es eine Reihe integrierter Sensoren. Wenn die Mikrofone eine Stimme hören und der Beschleunigungsmesser Kieferbewegungen erkennt, wird die Funktion aktiviert. Wie lange es anhält, hängt von verschiedenen Faktoren ab. Ich war beeindruckt von der Fähigkeit der Funktion, zu vermeiden, dass sie durch Dinge wie Räuspern oder Gähnen ausgelöst wird.

Das Team hat sich auch mit einem anderen seit langem bestehenden Problem mit Ohrhörern auseinandergesetzt: dem Wechseln. Die Zeitspanne von fünf Sekunden zwischen der Annahme eines Anrufs und dem Hören auf Ihren Ohrhörern fühlt sich an wie eine Ewigkeit. Um die neue Umschaltgeschwindigkeit nutzen zu können, muss der Benutzer an das Apple-Ökosystem gebunden sein.

1695678135 961 Apple Fuehrungskraefte erlaeutern die neuen Funktionen der AirPods

Bildnachweis: Apfel

„Mit diesem neuen Software-Update verkürzen sich die Verbindungszeiten unserer AirPods zu unseren Geräten erheblich“, sagt Huang. „Das liegt an all den verschiedenen Möglichkeiten, die wir nutzen, um Geräte in der Nähe zu entdecken. Für uns ist es wirklich wichtig zu wissen, was das iPhone macht, was das iPad macht, was der Mac macht. Ein Telefonanruf ist wichtiger als Musik. Wenn Sie also einen Anruf entgegennehmen, stellen wir sicher, dass wir den Weg weg vom iPhone nehmen und beispielsweise für die Telefonkonferenz eine Verbindung mit Ihrem Mac herstellen.“

Der letzte große Teil der AirPods-Ankündigung ist die Vision Pro-Konnektivität. Für das volle Audioerlebnis sollten Nutzer des kommenden Spatial-Computing-Headsets von Apple die neuen AirPods Pro für verlustfreies Audio mit extrem geringer Latenz mitbringen.

„Bluetooth läuft normalerweise mit 2,4 Gigahertz und dieser Luftraum ist sehr, sehr laut“, sagt Huang. „Alle laufen auf 2.4. Aus diesem Grund sind WLAN-Router beispielsweise in der Regel Dualband- oder sogar Triband-Router, da das 5-GHz-Spektrum viel sauberer ist. Um Audio mit wirklich sehr geringer Latenz und wirklich verlustfreies Audio mit hoher Wiedergabetreue zu erhalten, kommt es auf einen sehr, sehr sauberen Echtzeitkanal zwischen beiden an. Die Kombination von 5 GHz und die Tatsache, dass sie sehr nahe beieinander liegen, ermöglichten uns dies. Wir sind in der Lage, im Grunde ein brandneues Audioprotokoll über 5 GHz für AirPods neu zu entwickeln.“

Lesen Sie mehr über Apples iPhone 15 Event auf TechCrunch

tch-1-tech