Apple hat am Mittwoch die neueste Entwickler-Betaversion seiner Top-Betriebssysteme veröffentlicht, darunter iOS 18.2, iPadOS 18.2 und macOS Sequoia 15.2. Die Veröffentlichungen erscheinen eine Woche vor der öffentlichen Einführung von iOS 18.1, iPadOS 18.1 und macOS Sequoia 15.1 – Apple hat jedoch noch keinen Termin angegeben.
Mit der Ankunft in der nächsten Woche werden Apple Intelligence-Funktionen zum ersten Mal in einer Nicht-Beta-Form für die Öffentlichkeit verfügbar sein. Dazu gehören integrierte Schreibwerkzeuge, Bildbereinigung, Artikelzusammenfassungen und eine Eingabeeingabe für das neu gestaltete Siri-Erlebnis.
Die mutigeren Seelen, die sich derzeit für das Entwickler-Betaprogramm anmelden, erhalten Zugriff auf eine Reihe zusätzlicher Apple Intelligence-Funktionen, die im Juni auf der jährlichen WWDC-Veranstaltung des Unternehmens vorgestellt wurden. Zu diesen Funktionen gehören Genmoji, Image Playground, Visual Intelligence, Image Wand und ChatGPT-Integration.
Erstbenutzer von Apple Intelligence müssen sich über die Einstellungen für die Funktion anmelden. Benutzer müssen außerdem die Erlaubnis erteilen, die ChatGPT-Funktionalität zu aktivieren. Die generative KI-Plattform eines Drittanbieters wird in zwei Schlüsseln integriert: zur Beantwortung von Fragen über Siri und als Kompositionstool in Writing Tools.
Die Siri-Option erscheint, wenn dem Assistenten eine Frage gestellt wird, auf die er keine unmittelbaren Antworten finden kann. In diesem Fall bittet das System um Erlaubnis, auf die OpenAI-Plattform zugreifen zu dürfen. Rezepte und Reiseplanung sind zwei gemeinsame Funktionen, die die Funktion wahrscheinlich auslösen werden.
Compose ist mittlerweile in alle Apps mit Zugriff auf Schreibtools (sowie Erstanbieter- und viele Drittanbieter-Apps) integriert. Ähnlich wie bei der eigenständigen ChatGPT-Plattform geben Benutzer eine Eingabeaufforderung ein und der Dienst schreibt Text. Diese Apps haben auch Zugriff auf die Bildgenerierungsplattform von ChatGPT.
Das gilt natürlich zusätzlich zu Apples eigener Bildgenerierung. Image Playground, das in Apple-Apps wie Messages, Pages, Keynote und Freeform (sowie eine eigene eigenständige App) integriert ist, nutzt Eingabeaufforderungen, um neue Bilder zu generieren. Zu den Eingabeaufforderungen gehören Konzepte, Beschreibungen und Charaktererstellungen. Benutzer können auch Freunde und Familie als Anregungen verwenden oder Bilder basierend auf ihren eigenen Fotos erstellen.
Image Playground ist auf lizenzierte Inhalte sowie öffentlich gecrawlte Websites spezialisiert. Verlage haben die Möglichkeit, Letzteres abzulehnen. Apples Kunst erscheint in zwei Hauptstilen: Animation und Illustration. Beide verzichten bewusst auf Fotorealismus, um potenzielle ethische und rechtliche Probleme zu vermeiden, die sich aus gefälschten Fotos ergeben können.
Mit Image Wand können Benutzer ihre eigenen Skizzen in fertige Kunstwerke umwandeln. Es kann auch handschriftliche Notizen bereinigen.
Genmoji, das am Mittwoch als Teil der Entwicklerupdates für iOS 18.2 und iPadOS 18.2 eingeführt wird, bietet die Möglichkeit, Original-Emojis mit Eingabeaufforderungen zu generieren. Dazu gehören Beschreibungen, anhand Ihrer Fotos erkannte Personen und benutzerdefinierte Charaktere. Diese können in Nachrichten sowie mit Aufklebern und Tapbacks verwendet werden.
Visual Intelligence ist im Wesentlichen Apples Antwort auf Google Lens. Die Funktion ist über die Kamerasteuerungstaste des iPhone 16 zugänglich und kann QR-Codes scannen, Text kopieren und zusammenfassen, Telefonnummern und E-Mail-Adressen erkennen (und zu den Kontakten hinzufügen) und Sprache übersetzen. Die Funktion liefert auch Kontextinformationen zu den Bildern davor, einschließlich Restaurantbewertungen und Ladenöffnungszeiten.
Visual Intelligence kann für Einkaufsanfragen auch auf die Wissensdatenbank von Google zugreifen und auf ChatGPT zugreifen, um Informationen zu verschiedenen Themen zu erhalten.
Benutzer benötigen kein ChatGPT-Konto, um auf die Plattform zuzugreifen. Ohne eines sind ihre Anfragen jedoch begrenzt.