Siri erhielt bei Apples WWDC 2024 in Cupertino ein neues Gesicht, mit freundlicher Genehmigung der übergreifenden generativen KI-Offensive des Technologiegiganten in diesem Jahr, die Apple Intelligence heißt.
Siri ist jetzt natürlicher, relevanter und persönlicher – und hat ein neues Aussehen, einschließlich eines überarbeiteten Symbols. Der Assistent erscheint mit einem leuchtenden Licht, das sich um die Ränder des Bildschirms Ihres Geräts legt.
Dank Apple Intelligence kann Siri jetzt mit Sprachfehlern umgehen und den Kontext besser verstehen. Sie können jetzt auch in Siri schreiben und es kann Fragen zur Verwendung Ihres iPhone, iPad und Mac beantworten.
Bald wird Siri mit Onscreen-Erkennung noch leistungsfähiger werden. Wenn Ihnen beispielsweise ein Freund seine Adresse schickt, können Sie Siri bitten, etwas zu tun wie „diese Adresse zur Kontaktkarte hinzufügen“ und Siri kümmert sich darum (vorausgesetzt, die Funktion funktioniert wie angekündigt).
Siri wird auch in der Lage sein, in und zwischen Apps Aktionen auszuführen. Sie können Siri also bitten, „dieses Foto hervorzuheben“ und dann „dieses Foto zu einer anderen App hinzuzufügen“. Das ist der neuen App Intents API zu verdanken, die es Entwicklern ermöglicht, Siri Aktionen in ihren Apps ausführen zu lassen, und der verbesserten Wahrnehmung persönlicher Kontexte wie Nachrichten, Kalenderereignisse, Dateien und Fotos durch Siri.
Die Möglichkeiten sind ziemlich umfangreich. Apple hat als Beispiel genannt, dass Siri ein Foto Ihres Führerscheins findet, Ihre ID-Nummer extrahiert und diese für Sie in ein Webformular einträgt.
Es ist nicht klar, wann genau wir damit rechnen können, viele der leistungsstärkeren Funktionen von Siri auf Geräten zu sehen. Und Apple Intelligence wird nur auf dem iPhone 15 Pro und Geräten mit M1- oder neueren Chips verfügbar sein. Hoffentlich erfahren wir im weiteren Verlauf der WWDC mehr.