Apple stellt auf der iPad-Veranstaltung KI-Funktionen vor, darunter die neuronale M4-Engine

Apple stellt auf der iPad Veranstaltung KI Funktionen vor darunter die neuronale

Apple ist noch nicht bereit, seine umfassendere KI-Strategie vorzustellen – das spart es sich für seine weltweite Entwicklerkonferenz im Juni auf –, aber der Technologieriese hat bei seiner iPad-Veranstaltung am Dienstag darauf geachtet, KI-Technologien in seiner gesamten Gerätepalette zu erwähnen. Das Unternehmen pries ein neues iPad Air als „ein unglaublich leistungsstarkes Gerät für KI“; seine KI-gestützten Funktionen wie unter anderem visuelle Suche, Betreff-Lift und Live-Texterfassung; und natürlich der verbesserte M4-Chip, der über eine neuronale Engine verfügt, die „der Beschleunigung von KI-Arbeitslasten gewidmet ist“.

Beispielsweise wurde beschrieben, dass das Update des iPad Air, das jetzt das M2 mit einer schnelleren CPU, GPU und neuronalen Engine umfasst, „leistungsstarke Funktionen für maschinelles Lernen“ bietet visuelle Suche, das Objekte auf Fotos identifizieren kann; ein KI-gestütztes Tool das kann das Motiv eines Fotos hervorheben; Und Live-Texterfassungmit dem Text innerhalb des Kamerarahmens kopiert, geteilt, nachgeschlagen und übersetzt werden kann.

Als Apple keine eigene KI-Technologie hatte, auf die es verweisen konnte, verwies es auf Dritte. Als Apple beispielsweise über das iPad Air sprach, lobte er den Photomator von Pixelmator, der KI-Modelle verwendet, die auf über 20 Millionen professionellen Bildern trainiert wurden, um Fotos mit einem einzigen Klick zu verbessern.

In der Zwischenzeit ist das iPad Pro vom M2 auf das neue M4 umgestiegen, die neueste Generation von Apple-Silikon mit einer neuen CPU, einer GPU der nächsten Generation und ML-Beschleunigern der nächsten Generation, von denen Apple behauptet, dass sie bis zu 50 % schneller liefern werden Leistung als der M2. Natürlich hat das Unternehmen auch die Neural Engine (NPU) des Chips hervorgehoben, die „der Beschleunigung von KI-Workloads gewidmet ist“.

„Während die Chipindustrie gerade erst anfängt, NPUs in einige ihrer Prozessoren einzubauen, integrieren wir unsere branchenführende neuronale Engine schon seit Jahren in unseren Chip“, sagte John Ternus, Apple SVP, Hardware Engineering, während der Veranstaltung.

Die Verbraucher warten jedoch ab, welche Anwendungsfälle sich für diese Hardware-Fortschritte ergeben – und darauf hat Apple noch nicht näher eingegangen, obwohl es die Möglichkeit gab, eine iPadOS-Version mit neuen KI-Funktionen oder anderen Entwicklern anzukündigen -Gezielte Ankündigungen.

Stattdessen nutzte Apple die vorhandenen Funktionen von iPadOS, etwa die Multitasking-Ansicht Bühnenmanager und ein Anzeigemodus für Kreative, synchronisiert Referenzmodus.

Dennoch deutete das Unternehmen an, dass verbesserte KI-Fähigkeiten bald in den Händen von iPadOS-App-Entwicklern liegen würden, und wies darauf hin, dass die Betriebssystemsoftware fortschrittliche Frameworks wie CoreML bietet und dass Entwickler die neuronale Engine nutzen könnten, um „leistungsstarke KI“ bereitzustellen Funktionen direkt auf dem Gerät.“

In anderen Apps wie Logic Pro hat Apple neue KI-gestützte Session-Player wie einen Bass- und Keyboarder hinzugefügt, die neben dem bereits verfügbaren Schlagzeuger an einem Auftritt teilnehmen können. Diese KI-gesteuerten Begleitbandmitglieder können auch auf das in der App bereitgestellte Feedback reagieren, sagte Apple. Das Unternehmen erwähnte auch eine durch maschinelles Lernen unterstützte Lösung Logic Pro-Plug-in, ChromaGlow, um Tracks Wärme zu verleihen.

Bildnachweis: Apfel

Apple hat darauf hingewiesen, wie KI Probleme in Bereichen wie der Fotografie lösen könnte, beispielsweise beim Versuch, Dokumente mit der Kamera eines Geräts zu scannen.

„Wir alle haben schon einmal versucht, ein Dokument bei bestimmten Lichtverhältnissen zu scannen, bei denen es schwierig ist, einen Schattenwurf zu vermeiden“, sagte Ternus. „Der neue Pro löst dieses Problem. Es nutzt KI, um Dokumente wie Formulare und Quittungen automatisch zu erkennen. Sollten Schatten im Weg sein, werden mit dem neuen adaptiven Blitz sofort mehrere Fotos aufgenommen. Die Bilder werden zusammengefügt und das Ergebnis ist ein wesentlich besserer Scan.“

Obwohl sich keine der Erwähnungen von KI als übertriebener Durchbruch herausstellte, deuteten sie darauf hin, dass Apples Stil darin bestehen würde, KI-Verbesserungen hervorzuheben, da sie sich auf die Verbesserung des Verbrauchererlebnisses bei der Nutzung seiner Geräte beziehen. Das vollständige Video der Veranstaltung können Sie hier ansehen:

Wir erwarten, auf der WWDC noch viel mehr über Apples KI-Pläne zu hören, wo das Unternehmen möglicherweise sogar eine KI-gestützte Siri oder eine Partnerschaft mit einem KI-Anbieter wie diesem ankündigt Google oder OpenAIGerüchte deuten darauf hin.

Während es überall Hinweise auf KI gab, konzentrierte sich die Veranstaltung am Dienstag hauptsächlich auf die neue Hardware selbst, darunter ein neues iPad Air mit M2-Chip und erstmals 13-Zoll-Größe; ein neues iPad Pro mit völlig neuem M4-Chip und gestapelten OLED-Bildschirmen für eine hochauflösendere Darstellung; eine Pro-Version des Apple Pencil mit neuen Sensoren; und eine neue Version des Magic Keyboard.

Lesen Sie mehr über Apples iPad-Event 2024

tch-1-tech