Nach monatelangen Spekulationen stand Apple Intelligence im Juni im Mittelpunkt der WWDC 2024. Die Plattform wurde im Anschluss an eine Flut generativer KI-Nachrichten von Unternehmen wie Google und Open AI angekündigt, die Befürchtungen hervorriefen, dass der bekanntermaßen verschwiegene Technologieriese den Anschluss an den neuesten Technologieboom verpasst hatte.
Im Gegensatz zu solchen Spekulationen verfügte Apple jedoch über ein Team, das an einem Ansatz für künstliche Intelligenz arbeitete, der sich als typisch Apple herausstellte. Bei den Demos herrschte immer noch viel Schwung – Apple liebt es immer, eine Show zu veranstalten –, aber Apple Intelligence ist letztendlich eine sehr pragmatische Sicht auf diese Kategorie.
Apple Intelligence (ja, kurz KI) ist keine eigenständige Funktion. Vielmehr geht es um die Integration in bestehende Angebote. Während es sich im wahrsten Sinne des Wortes um eine Branding-Übung handelt, wird die vom Large Language Model (LLM) gesteuerte Technologie hinter den Kulissen agieren. Aus Sicht des Verbrauchers wird sich die Technologie meist in Form neuer Funktionen für bestehende Apps präsentieren.
Wir haben während der iPhone 16-Veranstaltung von Apple, die am 9. September stattfand, mehr erfahren. Während der Veranstaltung kündigte Apple eine Reihe von KI-gestützten Funktionen an, die auf seinen Geräten verfügbar sein werden, von der Übersetzung auf der Apple Watch Series 10 über die visuelle Suche auf iPhones usw Anzahl der Optimierungen an Siris Fähigkeiten. Die erste Welle von Apple Intelligence kommt Ende Oktober als Teil von iOS 18.1, iPadOS 18.1 und macOS Sequoia 15.1. Eine zweite Funktionswelle ist als Teil der Entwickler-Betas für iOS 18.2, iPadOS 18.2 und macOS Sequoia 15.2 verfügbar.
Die Funktionen wurden zunächst in US-Englisch veröffentlicht. Seitdem hat Apple die Lokalisierungen für australisches, kanadisches, neuseeländisches, südafrikanisches und britisches Englisch hinzugefügt.
Unterstützung für Chinesisch, Englisch (Indien), Englisch (Singapur), Französisch, Deutsch, Italienisch, Japanisch, Koreanisch, Portugiesisch, Spanisch und Vietnamesisch wird im Jahr 2025 verfügbar sein. Insbesondere erhalten Benutzer in China und der EU möglicherweise keinen Zugriff darauf Apple Intelligence-Funktionen aufgrund regulatorischer Hürden.
Was ist Apple Intelligence?
Marketingmanager aus Cupertino haben Apple Intelligence als „KI für den Rest von uns“ bezeichnet. Die Plattform ist darauf ausgelegt, die Dinge zu nutzen, die generative KI bereits gut kann, wie z. B. die Text- und Bildgenerierung, um bestehende Funktionen zu verbessern. Wie andere Plattformen, darunter ChatGPT und Google Gemini, wurde Apple Intelligence auf große Informationsmodelle trainiert. Diese Systeme nutzen Deep Learning, um Verbindungen herzustellen, sei es Text, Bilder, Video oder Musik.
Das von LLM betriebene Textangebot präsentiert sich als Writing Tools. Die Funktion ist in verschiedenen Apple-Apps verfügbar, darunter Mail, Nachrichten, Seiten und Benachrichtigungen. Es kann verwendet werden, um Zusammenfassungen langer Texte bereitzustellen, Korrekturen zu lesen und sogar Nachrichten für Sie zu verfassen, wobei Inhalts- und Tonvorgaben verwendet werden.
Auch die Bilderzeugung wurde auf ähnliche Weise integriert – wenn auch etwas weniger nahtlos. Benutzer können Apple Intelligence auffordern, benutzerdefinierte Emojis (Genmojis) im Apple-Hausstil zu generieren. Image Playground hingegen ist eine eigenständige App zur Bildgenerierung, die Eingabeaufforderungen nutzt, um visuelle Inhalte zu erstellen, die in Nachrichten, Keynote oder über soziale Medien geteilt werden können.
Apple Intelligence markiert auch ein lang erwartetes Facelifting für Siri. Der intelligente Assistent kam schon früh auf den Markt, wurde aber in den letzten Jahren größtenteils vernachlässigt. Siri ist viel tiefer in Apples Betriebssysteme integriert; Anstelle des bekannten Symbols sehen Benutzer beispielsweise ein leuchtendes Licht am Rand ihres iPhone-Bildschirms, wenn das Gerät seine Funktion ausführt.
Noch wichtiger ist, dass das neue Siri appübergreifend funktioniert. Das bedeutet zum Beispiel, dass Sie Siri bitten können, ein Foto zu bearbeiten und es dann direkt in eine Textnachricht einzufügen. Es ist eine reibungslose Erfahrung, die dem Assistenten zuvor gefehlt hatte. Onscreen-Awareness bedeutet, dass Siri den Kontext des Inhalts nutzt, mit dem Sie sich gerade beschäftigen, um eine passende Antwort zu geben.
Wer erhält Apple Intelligence und wann?
Die erste Welle von Apple Intelligence kommt im Oktober über iOS 18.1-, iPadOS 18.- und macOS Sequoia 15.1-Updates. Dazu gehören integrierte Schreibwerkzeuge, Bildbereinigung, Artikelzusammenfassungen und eine Eingabeeingabe für das neu gestaltete Siri-Erlebnis.
Viele verbleibende Funktionen werden mit der bevorstehenden Veröffentlichung im Oktober als Teil von iOS 18.1, iPadOS 18.1 und macOS Sequoia 15.1 hinzugefügt. Eine zweite Funktionswelle ist als Teil von iOS 18.2, iPadOS 18.2 und macOS Sequoia 15.2 verfügbar. Diese Liste umfasst Genmoji, Image Playground, Visual Intelligence, Image Wand und ChatGPT-Integration.
Die Nutzung des Angebots ist kostenlos, sofern Sie über eine der folgenden Hardwarekomponenten verfügen:
- Alle iPhone 16-Modelle
- iPhone 15 Pro Max (A17 Pro)
- iPhone 15 Pro (A17 Pro)
- iPad Pro (M1 und höher)
- iPad Air (M1 und höher)
- iPad mini (A17 oder neuer)
- MacBook Air (M1 und höher)
- MacBook Pro (M1 und höher)
- iMac (M1 und höher)
- Mac mini (M1 und höher)
- Mac Studio (M1 Max und höher)
- Mac Pro (M2 Ultra)
Bemerkenswerterweise erhalten nur die Pro-Versionen des iPhone 15 Zugriff, da der Chipsatz des Standardmodells Mängel aufweist. Vermutlich wird jedoch die gesamte iPhone 16-Reihe bei ihrer Ankunft mit Apple Intelligence laufen können.
Privates Cloud-Computing
Apple hat bei der Schulung einen kleinen, maßgeschneiderten Ansatz gewählt. Anstatt sich auf den Küchenspülen-Ansatz zu verlassen, der Plattformen wie GPT und Gemini vorantreibt, hat das Unternehmen intern Datensätze für bestimmte Aufgaben wie beispielsweise das Verfassen einer E-Mail zusammengestellt. Der größte Vorteil dieses Ansatzes besteht darin, dass viele dieser Aufgaben weitaus weniger ressourcenintensiv sind und auf dem Gerät ausgeführt werden können.
Das gilt jedoch nicht für alles. Für komplexere Abfragen wird das neue Private Cloud Compute-Angebot genutzt. Das Unternehmen betreibt jetzt Remote-Server, die auf Apple Silicon laufen, wodurch es angeblich das gleiche Maß an Privatsphäre bieten kann wie seine Verbrauchergeräte. Ob eine Aktion lokal oder über die Cloud ausgeführt wird, bleibt für den Benutzer unsichtbar, es sei denn, sein Gerät ist offline. Remote-Abfragen geben dann einen Fehler aus.
Apple Intelligence mit Apps von Drittanbietern
Im Vorfeld der WWDC wurde viel über die bevorstehende Partnerschaft von Apple mit OpenAI gesprochen. Letztendlich stellte sich jedoch heraus, dass es bei dem Deal weniger darum ging, Apple Intelligence mit Strom zu versorgen, als vielmehr darum, eine alternative Plattform für die Dinge anzubieten, für die es eigentlich nicht entwickelt wurde. Es ist ein stillschweigendes Eingeständnis, dass der Aufbau eines Systems mit kleinen Modellen seine Grenzen hat.
Apple Intelligence ist kostenlos. Dies gilt auch für den Zugriff auf ChatGPT. Allerdings haben diejenigen mit kostenpflichtigen Konten bei Letzterem Zugriff auf Premium-Funktionen, die kostenlose Benutzer nicht haben, einschließlich unbegrenzter Abfragen.
Die ChatGPT-Integration, die erstmals auf iOS 18.2, iPadOS 18.2 und macOS Sequoia 15.2 eingeführt wird, hat zwei Hauptaufgaben: die Ergänzung der Wissensdatenbank von Siri und die Ergänzung der vorhandenen Schreibtools-Optionen.
Wenn der Dienst aktiviert ist, wird die neue Siri bei bestimmten Fragen den Benutzer auffordern, den Zugriff auf ChatGPT zu genehmigen. Rezepte und Reiseplanung sind Beispiele für Fragen, die diese Option aufwerfen können. Benutzer können Siri auch direkt auffordern, „ChatGPT zu fragen“.
Verfassen ist die andere primäre ChatGPT-Funktion, die über Apple Intelligence verfügbar ist. Benutzer können in jeder App darauf zugreifen, die die neue Schreibtools-Funktion unterstützt. Compose bietet die Möglichkeit, Inhalte basierend auf einer Eingabeaufforderung zu schreiben. Dadurch werden vorhandene Schreibwerkzeuge wie Stil und Zusammenfassung ergänzt.
Wir wissen mit Sicherheit, dass Apple eine Partnerschaft mit weiteren generativen KI-Diensten plant. Das Unternehmen sagte fast, dass Google Gemini als nächstes auf dieser Liste steht.