Apple hat heute während seiner Keynote zur Worldwide Developers Conference keine nennenswerten KI-Updates angekündigt, hat aber mit seiner neuesten iPhone-Software, iOS 17, stillschweigend einige kleinere Computer-Vision-Upgrades eingeführt Indem sie das Motiv ihrer Fotos ausschneiden, können Benutzer mit einer weiteren neuen Funktion namens „Visual Look Up“ direkt auf einem Foto nach Rezepten suchen.
Der Zusatz gehörte nicht zu denen, die während der Keynote selbst vorgestellt wurden, sondern tauchte eher auf Teaser-Seite für iOS 17 auf Apples Website nachträglich veröffentlicht.
Es gibt nicht viele Details darüber, wie es funktionieren wird, aber vom Aussehen her scheint es ziemlich einfach zu sein. In iOS 17 werden Fotos von Lebensmitteln als solche gekennzeichnet und Sie können dann nach ähnlichen Gerichten suchen. Auf dem Foto auf der Seite, das dies veranschaulicht, führen Fotos von Schüsseln mit Quinoa beispielsweise zu Rezeptvorschlägen für andere Quinoa-Mahlzeiten und insbesondere für Frühstücksspeisen, wie auf dem Foto gezeigt. Wenn dies wie beschrieben funktioniert, könnte es eine praktische Möglichkeit sein, sich Inspiration für das Kochen zu holen, ohne im Internet suchen zu müssen. Allerdings wird es Sie wahrscheinlich nicht zu dem spezifischen Rezept für das abgebildete Gericht führen.
Der Zusatz ist jedoch ein weiteres Beispiel dafür, wie Apple Benutzer auf subtile Weise von der Google-Suche wegleitet, indem es sie ihre Suchanfragen direkt auf dem iPhone starten lässt. In diesem Fall würden die bereitgestellten Suchergebnisse die Benutzer unter Umgehung von Google auf die Website des Rezepts weiterleiten, während Benutzer in den vergangenen Jahren durch Spotlight-Verbesserungen eine Google-Suche übersprungen haben, um zu Wikipedia-Seiten zu gelangen oder Informationen zu Schauspielern, Filmen, Shows und Musikern zu suchen spezielle Karten, die in den Suchergebnissen von Spotlight erscheinen.
Das einzige große Update von Spotlight in diesem Jahr konzentriert sich jedoch nicht auf Websuchen, sondern zeigt bei der Suche nach einer App sogenannte „Top-Hits“ – oder gängige App-Verknüpfungen – an. Beispielsweise kann eine Suche nach Fotos Verknüpfungen wie „Zuletzt verwendet“ oder „Favoriten“ vorschlagen.
An anderer Stelle in iOS 17 ermöglichen die Verbesserungen bei der visuellen Suche Benutzern, Videos anzuhalten, um dann durch Tippen auf ein Infosymbol Informationen zum Thema nachzuschlagen.
Mit demselben Tool können Sie Informationen zu dem Motiv nachschlagen, das Sie aus Ihrem eigenen Foto ausgeschnitten haben – eine Funktion, die letztes Jahr mit iOS 16 eingeführt wurde. Eine der unterhaltsameren Ergänzungen zu dieser Zeit ist, dass Sie ein Objekt von einem „aufnehmen“ können Foto mit einem Fingerdruck. Das System kann Haustiere, Pflanzen, Sehenswürdigkeiten und andere Objekte auf Ihren Fotos identifizieren. Das ausgeschnittene Bild kann dann in eine Textnachricht oder in andere Anwendungen eingefügt werden.
Mit iOS 17 ermöglicht Apple Ihnen, diese Ausschnitte in einen Aufkleber umzuwandeln. Mit der neuen Live-Sticker-Funktion können Benutzer das Motiv ihrer eigenen Fotos oder jetzt auch pausierter Videos ausschneiden, um sie als Sticker zu speichern, die auch Effekte enthalten können. Auf die Sticker kann dann über iOS 17 zugegriffen werden, auch in Apps von Drittanbietern.