Apple avslører kommende tilgjengelighetsfunksjoner, inkludert en stemmereplikator

click fraud protection

De nye funksjonene skal gjøre det enklere for funksjonshemmede og funksjonshemmede å bruke iPhone og iPad.

Apple har annonsert en rekke tilgjengelighetsfunksjoner for iOS 17 og iPadOS 17 i et trekk som selskapet sier vil ha en positiv innvirkning på livene til iPhone-brukere med funksjonshemminger og funksjonshemminger. Kunngjøringen kommer bare et par dager før den 12. årlige Global Accessibility Awareness Day, som skal holdes torsdag 18. mai.

En av de mest bemerkelsesverdige nye funksjonene er Assistive Access, som er ment for personer med kognitive funksjonshemminger. Funksjonen, som Apple opplyser ble designet med tilbakemelding fra "mennesker med kognitive funksjonshemninger og deres pålitelige støttespillere," strømlinjeformer iOS- og iPadOS-grensesnittet, noe som gjør det enklere for folk å snakke med sine kjære, dele bilder og lytte til musikk. Som en del av den nye funksjonen er telefon- og FaceTime-apper slått sammen til én enkelt Calls-app. Funksjonen inkluderer også høykontrastknapper og store tekstetiketter, som alle kan konfigureres for bedre å betjene personer med tilgjengelighetsbehov.

Apple gjør det også enklere for ikke-verbale personer å kommunisere med Live Speech-funksjonen som lar folk skriv hva de vil si, og få det lest opp under telefonsamtaler, FaceTime-chatter og personlig samtaler. Funksjonen lar også folk lagre noen vanlige ord og setninger som kan brukes mens de snakker med venner og familie.

En annen ny funksjon er Personal Voice, som er rettet mot personer som står i fare for å miste evnen til å snakke på grunn av tilstander som ALS. Funksjonen bruker maskinlæring for å generere en unik personlig stemme for hver enkelt bruker. For å lage personlig stemme, må brukere lese noen ord og uttrykk inn i iPhone- eller iPad-mikrofonen i omtrent femten minutter. Den integreres med Live Speech for å la dem bruke sin egen stemme mens de snakker med sine kjære. Personal Voice vil bare være tilgjengelig på engelsk, og støttes kun på enheter som drives av Apple silisium.

En annen ny funksjon er Point and Speak, som bruker iPhones kamera og LiDAR-skanner for å la synshemmede samhandle med fysiske objekter som har flere tekstetiketter. Som et eksempel sier Apple at funksjonen kan gjøre det lettere for brukere med synshemninger å fungere bedre husholdningsapparater som mikrobølgeovnen, siden den kunne lese teksten på hver knapp når brukere beveger fingeren tastaturet. Ved lansering vil Point and Speak være tilgjengelig på engelsk, fransk, italiensk, tysk, spansk, portugisisk, kinesisk, kantonesisk, koreansk, japansk og ukrainsk.

En annen bemerkelsesverdig funksjon er stemmekontroll, som legger til "fonetiske forslag til tekstredigering". Dette er ment å hjelpe brukere som skriver med stemmen til å velge det riktige ordet blant flere ord som lyder likt, for eksempel «gjøre», «på grunn» og «dugg». Brukere vil nå også kunne gjøre en hvilken som helst bryter til en virtuell spillkontroller ved å bruke Switch Control, mens tekststørrelsesjustering nå er enklere i Mac-apper, som Finder, Messages, Mail, Calendar og Notater. Som en del av det nye fokuset på tilgjengelighet, utvider Apple også SignTime til Tyskland, Italia, Spania og Sør-Korea.

Apple forventes å forhåndsvise iOS 17 og iPadOS 17 kommende WWDC23-arrangement neste måned. Mens de nye operativsystemene opprinnelig var forventet å være mindre oppgraderinger i forhold til forgjengerne, tyder nyere rapporter på at de kan inkludere flere nye funksjoner enn tidligere forventet. De nye tilgjengelighetsalternativene bør gjøre disse operativsystemene enda mer velkomne, spesielt for personer med kognitive funksjonshemminger og funksjonshemminger.