Auf der WWDC stellte Apple heute sein Vision Pro VR/AR-Headset vor. Das Gerät wird vom firmeneigenen M2-Chip angetrieben, aber um die Echtzeitverarbeitung über die Sensorwand des Unternehmens durchführen zu können, musste Apple auch einen brandneuen Prozessor entwickeln – den es R1 nennt.
Der R1-Chip nutzt alle im Headset integrierten Sensoren, um eine präzise Kopf- und Handverfolgung sowie Echtzeit-3D-Mapping und Eye-Tracking zu ermöglichen.
Der Spezialchip wurde speziell für die anspruchsvolle Aufgabe der Echtzeit-Sensorverarbeitung entwickelt und nimmt den Input von 12 Kameras, fünf Sensoren (einschließlich eines Lidar-Sensors!) und sechs Mikrofonen auf. Das Unternehmen behauptet, dass es die Sensordaten innerhalb von 12 Millisekunden verarbeiten kann – achtmal schneller als ein Wimpernschlag – und sagt, dass dies die Reisekrankheit, unter der viele andere AR/VR-Systeme leiden, drastisch reduzieren werde.
Apple sagt, dass die Nutzung all dieser Vision- und Sensordaten bedeutet, dass es keine Controller verwenden muss und stattdessen Handgesten-Tracking und Eye-Tracking verwendet, um das Erlebnis zu steuern.
Mit der Kombination aus einem M2-Chip für jede Menge Rechenleistung und einem R1-Chip für die Verarbeitung von Eingaben bezeichnet Apple sein Gerät als das fortschrittlichste Gerät aller Zeiten und gibt an, 5.000 Patente angemeldet zu haben, um dies zu ermöglichen.
Details zum R1-Prozessor hat Apple nicht bekannt gegeben, wir werden aber nach weiteren technischen Daten Ausschau halten.