Apple führt neue kognitive Barrierefreiheitsfunktionen ein: Live Speech, Personal Voice und Point and Speak für iPhone und iPad

Apple fuehrt neue kognitive Barrierefreiheitsfunktionen ein Live Speech Personal Voice
Apfel Heute gab es eine Vorschau auf Softwarefunktionen für kognitive Barrierefreiheit, Seh-, Hör- und Mobilitätsbarrieren sowie neue Tools für Personen, die nicht sprechen oder Gefahr laufen, ihre Sprechfähigkeit zu verlieren. Diese Updates basieren auf Fortschritten in der Hardware und Software, umfassen maschinelles Lernen auf dem Gerät, um die Privatsphäre der Benutzer zu gewährleisten, und erweitern das langjährige Engagement von Apple, Produkte für alle zu entwickeln.
Apple hat mit Community-Gruppen zusammengearbeitet, die ein breites Spektrum von Benutzern mit Behinderungen repräsentieren, um Barrierefreiheitsfunktionen zu entwickeln.
Die neuen kognitiven Barrierefreiheitsfunktionen von Apple kommen später in diesem Jahr auf den Markt
Später in diesem Jahr können Benutzer mit kognitiven Behinderungen iPhone und iPad mit Assistive Access einfach und unabhängig nutzen. Personen, die nicht sprechen, können während Anrufen und Gesprächen mit Live Speech tippen, um zu sprechen. und diejenigen, die Gefahr laufen, ihre Sprechfähigkeit zu verlieren, können es nutzen Persönliche Stimme um eine synthetisierte Stimme zu erzeugen, die wie sie klingt, um mit Familie und Freunden in Kontakt zu treten.
Für Benutzer, die blind oder sehbehindert sind, bietet der Erkennungsmodus in der Lupe „Zeigen und Sprechen“, das Text erkennt, auf den Benutzer zeigen, und ihn laut vorliest, um ihnen die Interaktion mit physischen Objekten wie Haushaltsgeräten zu erleichtern.
Hier sind die neuen kognitiven Barrierefreiheitsfunktionen, die bald für iPhones und iPads verfügbar sein werden
Assistiver Zugriff
Assistive Access umfasst ein individuelles Erlebnis für Telefon und FaceTime, die in einer einzigen Anruf-App kombiniert wurden, sowie für Nachrichten, Kamera, Fotos und Musik. Die Funktion bietet eine eindeutige Benutzeroberfläche mit kontrastreichen Schaltflächen und großen Textbeschriftungen sowie Tools, die vertrauenswürdigen Unterstützern dabei helfen, das Erlebnis auf die von ihnen unterstützte Person anzupassen.
Live Speech und Personal Voice verbessern die Zugänglichkeit von Sprache
Mit Live Speech auf iPhone, iPad und Mac können Benutzer eingeben, was sie sagen möchten, damit es bei Telefon- und FaceTime-Anrufen sowie bei persönlichen Gesprächen laut vorgelesen wird. Benutzer können auch häufig verwendete Phrasen speichern, um sich bei lebhaften Gesprächen mit Familie, Freunden und Kollegen schnell einzuschalten.
Benutzer können eine persönliche Stimme erstellen, indem sie zusammen mit einer zufälligen Reihe von Textansagen vorlesen, um 15 Minuten Audio auf dem iPhone oder iPad aufzuzeichnen. Diese Sprachbarrierefreiheitsfunktion nutzt maschinelles Lernen auf dem Gerät, um die Informationen der Benutzer privat und sicher zu halten, und lässt sich nahtlos in Live Speech integrieren, sodass Benutzer mit ihrer persönlichen Stimme sprechen können, wenn sie sich mit ihren Lieben verbinden.
Erkennungsmodus in der Lupe
Mit dieser Funktion wird Point and Speak für blinde oder sehbehinderte Benutzer eingeführt, um Benutzern die Interaktion mit physischen Objekten mit mehreren Textbeschriftungen zu erleichtern. Bei der Verwendung eines Haushaltsgeräts – etwa einer Mikrowelle – kombiniert Point and Speak beispielsweise Eingaben von der Kamera-App, dem LiDAR-Scanner und maschinellem Lernen auf dem Gerät, um den Text auf jeder Taste anzusagen, wenn Benutzer ihren Finger über die Tastatur bewegen. Point and Speak ist in die Magnifier-App auf iPhone und iPad integriert, funktioniert hervorragend mit VoiceOver und kann mit anderen Magnifier-Funktionen wie Personenerkennung, Türerkennung und Bildbeschreibungen verwendet werden, um Benutzern die Navigation in ihrer physischen Umgebung zu erleichtern.
Zusatzfunktionen
Gehörlose oder schwerhörige Benutzer können Made for iPhone-Hörgeräte direkt mit dem Mac koppeln und sie an ihren Hörkomfort anpassen.
Die Sprachsteuerung fügt phonetische Vorschläge für die Textbearbeitung hinzu, sodass Benutzer, die mit ihrer Stimme tippen, aus mehreren Wörtern, die möglicherweise gleich klingen, das richtige auswählen können, z. B. „do“, „due“ und „dew“.
Darüber hinaus können Benutzer mit dem Voice Control Guide Tipps und Tricks zur Verwendung von Sprachbefehlen als Alternative zum Berühren und Tippen auf dem iPhone, iPad und Mac erfahren.
Benutzer mit körperlichen und motorischen Behinderungen, die Switch Control verwenden, können jeden Schalter in einen virtuellen Gamecontroller verwandeln, um ihre Lieblingsspiele auf iPhone und iPad zu spielen.
Für Benutzer mit Sehbehinderung lässt sich die Textgröße jetzt einfacher in Mac-Apps wie Finder, Nachrichten, E-Mail, Kalender und Notizen anpassen.
Benutzer, die empfindlich auf schnelle Animationen reagieren, können Bilder mit bewegten Elementen, wie z. B. GIFs, in Nachrichten und Safari automatisch anhalten.
Für VoiceOver-Benutzer klingen Siri-Stimmen selbst bei hohen Sprachrückmeldungen natürlich und ausdrucksstark. Benutzer können auch die Geschwindigkeit anpassen, mit der Siri mit ihnen spricht. Die Optionen reichen von 0,8x bis 2x.

toi-tech