Das Gerätenetzwerk von Apple ist beeindruckend umfassend und ermöglicht Fähigkeiten und Funktionen, die einst als unvorstellbar galten. Die Apple Watch ist nach wie vor die führende Smartwatch, während das iPhone neben anderen bemerkenswerten Produkten zu einem unverzichtbaren Gerät geworden ist, von dem man sich nur schwer trennen kann. Anlässlich des Global Accessibility Awareness Day hat Apple eine Reihe von Barrierefreiheitsfunktionen für iOS 17 vorgestellt, die das Benutzererlebnis auf Ihrem Smartphone deutlich verbessern sollen.
- So aktivieren und passen Sie Assistivetouch auf iPhone und iPad an
- So verwenden Sie Live-Untertitel auf iPhone und iPad
- Die 7 besten iOS 16-Apps und -Funktionen für Barrierefreiheit
- So fügen Sie eine personalisierte Tonerkennung auf dem iPhone hinzu
- So aktivieren Sie Untertitel für iPhone, iPad und iPod Touch und finden Filme
Unterstützender Zugriff
Eine der größten Möglichkeiten, mit denen Apple die Barrierefreiheit mit iOS 17 verbessern möchte, ist die Hinzufügung einer neuen Funktion namens „ „Unterstützender Zugang.“ Dies wurde erstmals in der Entwickler-Beta von iOS 16.2 entdeckt, schaffte es aber nie in die endgültige Version, und jetzt wissen wir es Warum.
Mit Assistive Access können Benutzer die Benutzeroberfläche auf einem iPhone oder iPad in eine Benutzeroberfläche voller riesiger Tasten zum einfachen Starten von Apps umwandeln. Dazu gehört der schnelle Zugriff auf Musik, Anrufe, Nachrichten, Fotos oder die Kamera direkt von Ihrem Startbildschirm aus. Und um die Nutzung der Geräte noch einfacher zu machen, wird die FaceTime-App zu einer einzigen „Anrufe“-App zusammengefasst.
Die Verbesserungen gehen weit über die bloße Änderung des Startbildschirms hinaus. Apple hat außerdem angekündigt, dass Sie in der Nachrichten-App auf eine „nur Emoji-Tastatur“ zugreifen können. Oder vielleicht möchten Sie eine Videobotschaft aufzeichnen, das geht viel einfacher, als durch eine Reihe von Menüs und Schaltflächen herumzufummeln.
Live Speech und Personal Voice verbessern die Zugänglichkeit von Sprache
Hierbei handelt es sich eigentlich um eine Reihe von zwei verschiedenen Funktionen, wobei Live Speech den Benutzern die Möglichkeit bietet, einzutippen, was sie sagen möchten. Dann wird es von ihren Geräten ausgesprochen, während sie telefonieren, einen FaceTime-Anruf führen oder sogar persönlich. Laut Apple wird es auch möglich sein, „häufig verwendete Phrasen zum schnellen Einstimmen“ zu speichern.
Vielleicht noch überraschender ist die Personal Voice-Funktion. Dies wurde für diejenigen geschaffen, die „dem Risiko ausgesetzt sind, ihre Sprechfähigkeit zu verlieren“. Es ist etwas, das plagt Millionen von Menschen und Familien auf der ganzen Welt, da unterschiedliche Bedingungen dies erschweren oder unmöglich machen sprechen.
Um Personal Voice nutzen zu können, muss die Person „eine zufällige Reihe von Textansagen vorlesen, um 15 Minuten Audio aufzunehmen“. Von da an nutzt die Funktion „maschinelles Lernen auf dem Gerät, um die Informationen der Benutzer privat und sicher zu halten, und lässt sich nahtlos in Live Speech integrieren, damit Benutzer dies tun können.“ Sprechen Sie mit ihrer persönlichen Stimme, wenn Sie mit Ihren Lieben in Kontakt treten.“ Dies fühlt sich definitiv wie eine dieser transformativen Funktionen an, für die Apple bekannt ist liefern.
Erkennungsmodus in der Lupe
Die letzte große Barrierefreiheitsfunktion, die in iOS 17 erwartet wird, heißt „Point and Speak in Magnifier“. Verwenden Sie die integrierte Lupen-App Ihres iPhones „Kombiniert Eingaben von der Kamera, dem LiDAR-Scanner und maschinellem Lernen auf dem Gerät.“ Ein Beispiel hierfür ist die Verwendung von Point and Speak to Figure Finden Sie heraus, welche Tasten bei der Verwendung einer Mikrowelle gedrückt werden müssen, da der angezeigte Text „auf jeder Taste angezeigt wird, wenn Benutzer ihre Finger über die Mikrowelle bewegen“. Tastenfeld."
Weitere Barrierefreiheitsfunktionen in iOS 17
Während dies die wichtigsten Highlights der neuesten Ankündigung von Apple sind, sind weitere Barrierefreiheitsfunktionen für iOS 17 in Vorbereitung.
- Gehörlose oder schwerhörige Benutzer können sich koppeln Hergestellt für iPhone-Hörgeräte direkt auf den Mac und passen Sie sie an Ihren Hörkomfort an.
- Stimmenkontrolle Fügt phonetische Vorschläge für die Textbearbeitung hinzu, sodass Benutzer, die mit ihrer Stimme tippen, aus mehreren Wörtern, die möglicherweise ähnlich klingen, das richtige auswählen können, z. B. „do“, „due“ und „dew“.4 Darüber hinaus mit Anleitung zur Sprachsteuerungkönnen Benutzer Tipps und Tricks zur Verwendung von Sprachbefehlen als Alternative zum Berühren und Tippen auf dem iPhone, iPad und Mac erfahren.
- Benutzer mit körperlichen und motorischen Behinderungen, die verwenden Schaltersteuerung können jeden Schalter in einen virtuellen Gamecontroller verwandeln, um ihre Lieblingsspiele auf iPhone und iPad zu spielen.
- Für Benutzer mit Sehbehinderung: Textgröße lässt sich jetzt einfacher an Mac-Apps wie Finder, Nachrichten, E-Mail, Kalender und Notizen anpassen.
- Benutzer, die empfindlich auf schnelle Animationen reagieren, können dies automatisch tun Pausieren Sie Bilder mit bewegten Elementen, wie GIFs, in Nachrichten und Safari.
- Für Voice-over Benutzer klingen Siri-Stimmen auch bei hohen Sprachrückmeldungen natürlich und ausdrucksstark; Benutzer können auch die Geschwindigkeit anpassen, mit der Siri mit ihnen spricht. Die Optionen reichen von 0,8x bis 2x.
Darüber hinaus bestätigte Apple, dass es plant, den Global Accessibility Awareness Day mit „Sondersitzungen, kuratierten Sammlungen und mehr“ zu feiern. Dazu gehört eine neue „Remember This“-Verknüpfung, die in die Shortcuts-App aufgenommen wird und „Benutzern mit kognitiven Behinderungen dabei hilft, in Notes ein visuelles Tagebuch zum einfachen Nachschlagen und Nachdenken zu erstellen“.