Apple hat heute eine Vorschau auf eine Reihe neuer Funktionen zur Verbesserung der kognitiven, visuellen und sprachlichen Zugänglichkeit vorgestellt. Diese Tools sollen noch in diesem Jahr auf dem iPhone, iPad und Mac verfügbar sein. Als etablierter Marktführer im Bereich Mainstream-Tech-Barrierefreiheit betont Apple, dass diese Tools auf dem Feedback von Behindertengemeinschaften entwickelt wurden.
Assistive Access, bald für iOS und iPadOS erhältlich, ist für Menschen mit kognitiven Behinderungen konzipiert. Assistive Access optimiert die Benutzeroberfläche von iPhone und iPad und konzentriert sich insbesondere darauf, es einfacher zu machen, mit geliebten Menschen zu sprechen, Fotos zu teilen und Musik zu hören. Beispielsweise werden die Phone- und FaceTime-Apps zu einer zusammengefasst.
Das Design wird außerdem durch die Integration großer Symbole, erhöhten Kontrasts und klarerer Textbeschriftungen verständlicher, um den Bildschirm übersichtlicher zu gestalten. Der Benutzer kann diese visuellen Funktionen jedoch nach seinen Wünschen anpassen, und diese Präferenzen gelten für jede App, die mit Assistive Access kompatibel ist.
Als Teil des vorhandenen Magnifier-Tools können blinde und sehbehinderte Benutzer bereits mit ihrem Telefon Türen, Personen oder Schilder in der Nähe lokalisieren. Jetzt führt Apple eine Funktion namens „Point and Speak“ ein, die die Kamera und den LiDAR-Scanner des Geräts nutzt, um sehbehinderten Menschen die Interaktion mit physischen Objekten zu erleichtern, die über mehrere Textbeschriftungen verfügen.
Wenn also ein sehbehinderter Benutzer Essen in der Mikrowelle erhitzen möchte, könnte er mit Point and Speak den Unterschied zwischen den Tasten „Popcorn“, „Pizza“ und „Leistungsstufe“ erkennen – wenn das Gerät diesen Text erkennt, erkennt er den Unterschied zwischen den Tasten „Popcorn“, „Pizza“ und „Leistungsstufe“. liest es laut vor. Point and Speak wird auf Englisch, Französisch, Italienisch, Deutsch, Spanisch, Portugiesisch, Chinesisch, Kantonesisch, Koreanisch, Japanisch und Ukrainisch verfügbar sein.
Eine besonders interessante Funktion aus dem Paket ist Personal Voice, das eine automatisierte Stimme erzeugt, die wie Sie selbst und nicht wie Siri klingt. Das Tool wurde für Menschen entwickelt, bei denen das Risiko besteht, dass sie aufgrund von Erkrankungen wie ALS ihre Stimmfähigkeit verlieren. Um eine persönliche Stimme zu erzeugen, muss der Benutzer etwa fünfzehn Minuten damit verbringen, zufällig ausgewählte Textansagen klar und deutlich in sein Mikrofon vorzulesen. Anschließend wird der Ton mithilfe von maschinellem Lernen lokal auf Ihrem iPhone, iPad oder Mac verarbeitet, um Ihre persönliche Stimme zu erstellen. Es klingt ähnlich wie das, was Acapela mit seinem „My Own Voice“-Dienst gemacht hat, der mit anderen Hilfsmitteln funktioniert.
Es ist leicht zu erkennen, wie gefährlich ein Repository einzigartiger, hochqualifizierter Text-to-Speech-Modelle in den falschen Händen sein kann. Laut Apple werden diese benutzerdefinierten Sprachdaten jedoch niemals an Dritte weitergegeben, auch nicht an Apple selbst. Tatsächlich sagt Apple, dass Ihre persönliche Stimme nicht einmal mit Ihrer Apple-ID verknüpft wird, da einige Haushalte möglicherweise ein Login teilen. Stattdessen müssen sich Benutzer dafür entscheiden, ob eine persönliche Stimme, die sie auf ihrem Mac erstellt haben, auf ihrem iPhone zugänglich sein soll oder umgekehrt.
Zum Start wird Personal Voice nur für englischsprachige Personen verfügbar sein und kann nur auf Geräten mit Apple-Silizium erstellt werden.
Egal, ob Sie als Siri oder als Ihr KI-Stimmzwilling sprechen, Apple erleichtert nonverbalen Menschen die Kommunikation. Mit Live Speech, das auf allen Apple-Geräten verfügbar ist, können Benutzer das eingeben, was sie sagen möchten, sodass es laut gesprochen werden kann. Das Tool ist auf dem Sperrbildschirm sofort verfügbar, kann aber auch in anderen Apps wie FaceTime verwendet werden. Und wenn Benutzer häufig dieselben Sätze wiederholen müssen – wie zum Beispiel bei einer normalen Kaffeebestellung – können sie voreingestellte Sätze in Live Speech speichern.
Auch die bestehenden Sprach-zu-Text-Tools von Apple erhalten ein Upgrade. Jetzt verfügt die Sprachsteuerung über eine phonetische Textbearbeitung, die es Menschen, die mit ihrer Stimme tippen, erleichtert, Fehler schnell zu korrigieren. Wenn Sie also sehen, dass Ihr Computer „großartig“ transkribiert, Sie aber „grau“ sagen wollten, ist es einfacher, diese Korrektur vorzunehmen. Diese Funktion, phonetische Vorschläge, wird vorerst auf Englisch, Spanisch, Französisch und Deutsch verfügbar sein.
Diese Barrierefreiheitsfunktionen werden voraussichtlich noch in diesem Jahr für verschiedene Apple-Produkte eingeführt. Was seine bestehenden Angebote betrifft, weitet Apple am Donnerstag den Zugang zu SignTime auf Deutschland, Italien, Spanien und Südkorea aus. SignTime bietet Benutzern On-Demand-Gebärdensprachdolmetscher für Apple Store- und Apple Support-Kunden.