Diese Woche in der KI: Apple verrät nicht, wie die Wurst gemacht wird

Hallo Leute und willkommen beim regelmäßigen KI-Newsletter von Tech.

In dieser Woche stand Apple im Bereich KI im Rampenlicht.

Auf der Worldwide Developers Conference (WWDC) in Cupertino stellte Apple Apple Intelligence vor, seinen lang erwarteten, ökosystemweiten Vorstoß in die generative KI. Apple Intelligence ermöglicht eine ganze Reihe von Funktionen, von einem verbesserten Siri über KI-generierte Emojis bis hin zu Fotobearbeitungstools, die unerwünschte Personen und Objekte aus Fotos entfernen.

Das Unternehmen versprach, dass bei der Entwicklung von Apple Intelligence die Sicherheit im Mittelpunkt stehe und hochgradig personalisierte Erfahrungen ermöglicht würden.

„Es muss Sie verstehen und in Ihrem persönlichen Kontext verankert sein, wie Ihrem Tagesablauf, Ihren Beziehungen, Ihrer Kommunikation und mehr“, bemerkte CEO Tim Cook während der Keynote am Montag. „All das geht über künstliche Intelligenz hinaus. Es ist persönliche Intelligenz und der nächste große Schritt für Apple.“

Apple Intelligence ist typisch Apple: Es verbirgt die technischen Details hinter offensichtlichen, intuitiv nützlichen Funktionen. (Cook hat den Ausdruck „großes Sprachmodell“ nicht ein einziges Mal ausgesprochen.) Aber als jemand, der seinen Lebensunterhalt mit dem Schreiben über die Schattenseiten der KI verdient, wünschte ich mir, Apple wäre – nur dieses eine Mal – transparenter, was die Herstellung der Wurst angeht.

Nehmen wir zum Beispiel Apples Modelltrainingspraktiken. Apple gab in einem Blogbeitrag bekannt, dass es die KI-Modelle, die Apple Intelligence antreiben, mit einer Kombination aus lizenzierten Datensätzen und dem öffentlichen Web trainiert. Verlage haben die Möglichkeit, künftige Trainings abzulehnen. Aber was, wenn Sie ein Künstler sind, der wissen möchte, ob Ihre Arbeit bei Apples anfänglichem Training berücksichtigt wurde? Pech gehabt – hier ist Stillschweigen.

Die Geheimhaltung könnte aus Wettbewerbsgründen erfolgen. Aber ich vermute, sie soll Apple auch vor rechtlichen Herausforderungen schützen – insbesondere vor Herausforderungen in Bezug auf das Urheberrecht. Die Gerichte müssen noch entscheiden, ob Anbieter wie Apple das Recht haben, mit öffentlichen Daten zu trainieren, ohne die Ersteller dieser Daten zu entschädigen oder zu benennen – mit anderen Worten, ob die Fair-Use-Doktrin auf generative KI anwendbar ist.

Es ist ein wenig enttäuschend zu sehen, dass Apple, das sich oft als Verfechter einer vernünftigen Technologiepolitik darstellt, das Fair-Use-Argument implizit unterstützt. Hinter dem Schleier des Marketings kann Apple behaupten, einen verantwortungsvollen und maßvollen Umgang mit KI zu verfolgen, während es durchaus ohne Erlaubnis an den Werken der Entwickler trainiert haben könnte.

Eine kleine Erklärung würde schon viel bewirken. Es ist schade, dass wir keine bekommen haben – und ich bin nicht zuversichtlich, dass wir in naher Zukunft eine bekommen werden, es sei denn, es kommt zu einer (oder zwei) Klagen.

Nachricht

Die wichtigsten KI-Funktionen von Apple: Ihr ergebener Diener hat die wichtigsten KI-Funktionen zusammengefasst, die Apple diese Woche während der WWDC-Keynote angekündigt hat, von der verbesserten Siri bis hin zu tiefen Integrationen mit OpenAIs ChatGPT.

OpenAI stellt Führungskräfte ein: OpenAI hat diese Woche Sarah Friar, die ehemalige CEO des hyperlokalen sozialen Netzwerks Nextdoor, als Finanzvorstand und Kevin Weil, der zuvor die Produktentwicklung bei Instagram und Twitter leitete, als Produktvorstand eingestellt.

Mail, jetzt mit mehr KI: Diese Woche hat Yahoo (die Muttergesellschaft von Tech) Yahoo Mail mit neuen KI-Funktionen aktualisiert, darunter KI-generierte Zusammenfassungen von E-Mails. Google hat kürzlich eine ähnliche generative Zusammenfassungsfunktion eingeführt – diese ist allerdings hinter einer Paywall.

Kontroverse Ansichten: Eine aktuelle Studie der Carnegie Mellon University stellt fest, dass nicht alle Modelle der generativen KI gleich sind – insbesondere im Hinblick auf den Umgang mit polarisierenden Themen.

Tongenerator: Stability AI, das Startup hinter dem KI-gestützten Kunstgenerator Stable Diffusion, hat ein offenes KI-Modell zur Generierung von Klängen und Liedern veröffentlicht, das nach eigenen Angaben ausschließlich anhand lizenzfreier Aufnahmen trainiert wurde.

Forschungspapier der Woche

Google glaubt, dass es ein generatives KI-Modell für die persönliche Gesundheit erstellen kann – oder zumindest erste Schritte in diese Richtung unternehmen kann.

In einem neuen Papier vorgestellt im offiziellen Google AI-BlogForscher bei Google lüften den Vorhang zum Personal Health Large Language Model, kurz PH-LLM – einer verfeinerten Version eines der Gemini-Modelle von Google. PH-LLM wurde entwickelt, um Empfehlungen zur Verbesserung von Schlaf und Fitness zu geben, unter anderem durch das Auslesen von Herz- und Atemfrequenzdaten von tragbaren Geräten wie Smartwatches.

Um die Fähigkeit des PH-LLM zu testen, nützliche Gesundheitsempfehlungen zu geben, erstellten die Forscher fast 900 Fallstudien zu Schlaf und Fitness mit US-amerikanischen Probanden. Sie fanden heraus, dass PH-LLM Schlafempfehlungen gab, die nahe bei – aber nicht ganz so gut wie – die Empfehlungen von Schlafexperten.

Die Forscher sagen, dass PH-LLM dabei helfen könnte, physiologische Daten für „persönliche Gesundheitsanwendungen“ zu kontextualisieren. Google Fit kommt einem da in den Sinn; es würde mich nicht überraschen, wenn PH-LLM irgendwann eine neue Funktion in einer Fitness-orientierten Google-App antreiben würde, egal ob Fit oder etwas anderes.

Modell der Woche

Apple hat in seinem Blog ziemlich viel über die neuen geräteinternen und Cloud-basierten generativen KI-Modelle geschrieben, aus denen die Apple Intelligence Suite besteht. Doch trotz der Länge dieses Beitrags verrät er nur wenig über die Fähigkeiten der Modelle. Hier ist unser Versuch, ihn zu analysieren:

Das namenlose On-Device-Modell, das Apple hervorhebt, ist klein, zweifellos, damit es offline auf Apple-Geräten wie dem iPhone 15 Pro und Pro Max ausgeführt werden kann. Es enthält 3 Milliarden Parameter – „Parameter“ sind die Teile des Modells, die im Wesentlichen seine Fähigkeit zu einem Problem definieren, wie z. B. das Generieren von Text – und ist damit vergleichbar mit Googles On-Device-Gemini-Modell Gemini Nano, das in den Größen 1,8 Milliarden Parameter und 3,25 Milliarden Parameter erhältlich ist.

Das Servermodell ist inzwischen größer (wie viel größer, sagt Apple nicht genau). Was wir Tun Was man weiß, ist, dass es leistungsfähiger ist als das On-Device-Modell. Während das On-Device-Modell in den von Apple aufgeführten Benchmarks auf Augenhöhe mit Modellen wie Microsofts Phi-3-mini, Mistrals Mistral 7B und Googles Gemma 7B abschneidet, schneidet das Servermodell laut Apple „im Vergleich zu OpenAIs älterem Flaggschiffmodell GPT-3.5 Turbo gut ab“.

Apple sagt außerdem, dass sowohl das On-Device-Modell als auch das Server-Modell weniger anfällig dafür sind, aus dem Ruder zu laufen (d. h., Toxizität auszustoßen) als Modelle ähnlicher Größe. Das mag so sein – aber dieser Autor behält sich sein Urteil vor, bis wir die Gelegenheit haben, Apple Intelligence auf die Probe zu stellen.

Wundertüte

Diese Woche jährte sich die Veröffentlichung von GPT-1, dem Vorgänger von GPT-4o, OpenAIs neuestem Flaggschiff-Modell für generative KI, zum sechsten Mal. Und während Deep Learning stößt möglicherweise an seine Grenzenes ist unglaublich, wie weit das Feld gekommen ist.

Bedenken Sie, dass es einen Monat gedauert hat, GPT-1 anhand eines Datensatzes von 4,5 Gigabyte Text zu trainieren (BookCorpus, das etwa 7.000 unveröffentlichte Romane enthält). GPT-3, das nach Parameteranzahl fast 1.500-mal so groß ist wie GPT-1 und in der Prosa, die es generieren und analysieren kann, deutlich anspruchsvoller ist, benötigte 34 Tage zum Trainieren. Wie sieht das für eine Skalierung aus?

Was GPT-1 bahnbrechend machte, war sein Trainingsansatz. Frühere Techniken stützten sich auf riesige Mengen manuell gekennzeichneter Daten, was ihre Nützlichkeit einschränkte. (Das manuelle Kennzeichnen von Daten ist zeitaufwändig – und mühsam.) Aber GPT-1 tat dies nicht; es trainierte hauptsächlich auf unbeschriftet Daten, um zu „lernen“, wie eine Reihe von Aufgaben ausgeführt werden (z. B. das Schreiben von Aufsätzen).

Viele Experten glauben, dass wir in naher Zukunft keinen so bedeutsamen Paradigmenwechsel wie den von GPT-1 erleben werden. Aber andererseits hat die Welt den von GPT-1 auch nicht kommen sehen.

tch-1-tech