Apple setzt auf Drittanbieter wie Google, um die visuelle Suche des iPhone 16 zu unterstützen

Apple setzt auf Drittanbieter wie Google um die visuelle Suche

Apples Beziehung zu Google als Suchpartner nimmt eine neue Wendung mit der Einführung der visuellen Suche durch Apple oder „Visual Intelligence“, wie der iPhone-Hersteller sie gestern während seines iPhone 16-Events nannte. Apple zahlt bereits Alphabet rund 20 Milliarden Dollar pro Jahr Google zur Standardsuchmaschine im Safari-Browser zu machen. Jetzt können iPhone 16-Benutzer mit einem Klick auf die neue Kamerasteuerungstaste des Geräts auf die Suchmaschine von Google – und ihre visuellen Suchfunktionen – zugreifen.

ChatGPT von OpenAI, das künftig über Siri zugänglich ist, wurde auch als Drittanbieterpartner in einer Demo gezeigt, in der Sie die Kamera Ihres Telefons auf Ihre Unterrichtsnotizen richten und mit einem Mausklick Hilfe zum Verständnis des Konzepts oder Problems erhalten konnten.

Mit der Kamerasteuerung erklärte Apple, wie Benutzer schnell ein Foto oder ein Video aufnehmen können und wie sie ihren Finger über die Taste bewegen können, um ihre Aufnahme einzurahmen und Optionen wie Zoom, Belichtung oder Schärfentiefe in einer neuen Kameravorschau anzupassen. Die Taste bietet iPhone 16-Benutzern jedoch auch Zugriff auf Apples neue Suchfunktion „visuelle Intelligenz“, und hier kommt die Google-Partnerschaft ins Spiel.

Bei der ersten Vorstellung schien die Kamerasteuerung des iPhone 16 wie Apples Jargon für „Auslöser“, aber im weiteren Verlauf der Veranstaltung erklärte Apple, dass man mit dieser neuen Hardwarefunktion noch mehr machen kann. Mit Visual Intelligence haben Benutzer nicht nur eine einfache Möglichkeit, mehr über die Dinge im Blickfeld ihrer Kamera zu erfahren, sondern auch eine weitere Möglichkeit, auf Dienste von Drittanbietern zuzugreifen, ohne eigenständige Apps starten zu müssen.

Im Wesentlichen eine visuelle Suchfunktion, ähnlich wie Google Lens oder Pinterest LensApple beschrieb Visual Intelligence als eine Möglichkeit, sofort alles zu lernen, was man sieht. Anhand einiger Beispiele demonstrierte Apple, wie Benutzer mit einem Klick auf die Kamerasteuerungstaste Informationen über ein Restaurant abrufen konnten, das sie unterwegs in der Stadt gesehen hatten, oder wie sie mit dieser Funktion die Rasse eines Hundes identifizieren konnten, den sie beim Spaziergang gesehen hatten. Die Funktion konnte auch ein an die Wand gepinntes Veranstaltungsplakat in einen Kalendereintrag mit allen Einzelheiten verwandeln.

Craig Federighi, Senior Vice President of Software Engineering bei Apple, erwähnte dann beiläufig, dass die Funktion auch für den Zugriff auf die Google-Suche verwendet werden könne.

„Die Kamerasteuerung ist auch Ihr Tor zu Tools von Drittanbietern, sodass Sie ganz schnell und einfach auf deren spezifisches Fachwissen zugreifen können. Wenn Sie also auf ein Fahrrad stoßen, das genau so aussieht wie das, nach dem Sie suchen, tippen Sie einfach auf Google, um zu suchen, wo Sie etwas Ähnliches kaufen können“, sagte er.

Bildnachweise: Apfel

In der Demo wurde gezeigt, wie eine Person auf die Kamerasteuerungstaste tippte, während sie ihr iPhone auf ein Fahrrad richtete und dann eine Reihe ähnlicher Optionen zum Kauf in einem Popup-Fenster über der Kameraansicht überprüfte. Auf das Raster mit Bildern und Beschreibungen der passenden Fahrräder folgte dann eine kleinere Schaltfläche auf dem Bildschirm mit der Aufschrift „Weitere Ergebnisse von Google“, was darauf hinwies, dass Sie Ihre Google-Suche mit einem weiteren Tippen fortsetzen konnten.

Was Apple nicht erklärt hat, ist, wie oder wann ein Druck auf die Kamerasteuerungstaste erkennen würde, dass man sich für eine Antwort an einen Drittanbieter-Partner wenden sollte und nicht an einen integrierten Apple-Dienst – wie Apple Maps, das in der Demo über das Restaurant gezeigt wurde. Auch hat das Unternehmen nicht vollständig erklärt, wie Benutzer diese Funktion steuern oder konfigurieren können. Stattdessen sagte Federighi etwas vage: „Natürlich haben Sie immer die Kontrolle darüber, wann Tools von Drittanbietern verwendet werden.“

Ein Google-Sprecher sagte auf Anfrage, das Unternehmen könne zum jetzigen Zeitpunkt nichts zu der Partnerschaft mitteilen. Apple antwortete nicht auf eine Bitte um Stellungnahme.

Das Interessante an dieser Funktion ist, dass sie ein neues Paradigma für die Interaktion mit Software und Diensten darstellt, die über die hinausgehen, die Apple mit dem iPhone ausliefert. Und sie kommt zu einem Zeitpunkt, an dem das Konzept eines App Stores veraltet erscheint.

Mithilfe der KI-Technologie können Benutzer Fragen stellen, Produktivitätsaufgaben ausführen, mit Bildern und Videos kreativ sein und vieles mehr. Das sind Dinge, für die Verbraucher früher auf Apps zurückgegriffen haben, die sie jetzt über eine neue Schnittstelle zum Sprechen und Senden von Textnachrichten mit einem KI-Assistenten erledigen können.

Anstatt sich sofort an die Entwicklung eines eigenen Konkurrenten für ChatGPT zu machen, präsentiert sich Apple als Plattform, um Dienste von Drittanbietern zu erreichen, darunter KI-Technologien, Suchdienste und wahrscheinlich auch andere Anbieter in der Zukunft. Darüber hinaus kann das Unternehmen diese Verbindungen durch hinter den Kulissen stattfindende Vereinbarungen mit Partnern herstellen – wie etwa seine Partnerschaft mit OpenAI bei ausgewählten KI-Funktionen – anstatt Transaktionen innerhalb der Apps als Einnahmequelle zu nutzen.

Darüber hinaus wird auf intelligente Weise verhindert, dass der Ruf von Apple Schaden nimmt, wenn ein Drittanbieter, beispielsweise ChatGPT, Fehler macht (was bei KIs häufig vorkommt) oder eine Google-Suche keine hilfreichen Ergebnisse liefert.

tch-1-tech