Apple afslører kommende tilgængelighedsfunktioner, herunder en stemmereplikator

De nye funktioner skal gøre det nemmere for personer med handicap og handicap at bruge deres iPhones og iPads.

Apple har annonceret en række tilgængelighedsfunktioner til iOS 17 og iPadOS 17 i et træk, som selskabet siger, vil have en positiv indvirkning på livet for iPhone-brugere med handicap og handicap. Meddelelsen kommer blot et par dage forud for den 12. årlige Global Accessibility Awareness Day, som skal holdes torsdag den 18. maj.

En af de mest bemærkelsesværdige nye funktioner er Assistive Access, som er beregnet til mennesker med kognitive handicap. Funktionen, som Apple oplyser blev designet med feedback fra "mennesker med kognitive handicap og deres betroede støtter," strømliner iOS- og iPadOS-grænsefladen, hvilket gør det nemmere for folk at tale med deres kære, dele billeder og lytte til musik. Som en del af den nye funktion er telefon- og FaceTime-apps slået sammen til en enkelt Calls-app. Funktionen inkluderer også knapper med høj kontrast og store tekstetiketter, som alle kan konfigureres til bedre at betjene personer med behov for tilgængelighed.

Apple gør det også nemmere for ikke-verbale mennesker at kommunikere med sin Live Speech-funktion, der lader folk skriv, hvad de vil sige, og få det læst højt under telefonopkald, FaceTime-chats og personligt samtaler. Funktionen giver også folk mulighed for at gemme nogle almindelige ord og sætninger, der skal bruges, mens de taler med venner og familie.

En anden ny funktion er Personal Voice, som henvender sig til personer, der risikerer at miste deres taleevne på grund af tilstande som ALS. Funktionen bruger maskinlæring til at generere en unik personlig stemme for hver enkelt bruger. For at skabe personlig stemme skal brugerne læse nogle ord og sætninger ind i iPhone eller iPads mikrofon i cirka femten minutter. Den integreres med Live Speech for at lade dem bruge deres egen stemme, mens de taler til deres kære. Personal Voice vil kun være tilgængelig på engelsk og understøttes kun på enheder, der drives af Apple silicium.

En anden ny funktion er Point and Speak, som bruger iPhones kamera og LiDAR-scanner til at gøre det muligt for synshandicappede at interagere med fysiske objekter, der har flere tekstetiketter. Som et eksempel siger Apple, at funktionen kunne gøre det lettere for brugere med synshandicap at fungere bedre husholdningsenheder som mikrobølgeovnen, da den kunne læse teksten på hver knap højt, når brugere bevæger fingeren hen over tastaturet. Ved lanceringen vil Point and Speak være tilgængelig på engelsk, fransk, italiensk, tysk, spansk, portugisisk, kinesisk, kantonesisk, koreansk, japansk og ukrainsk.

En anden bemærkelsesværdig funktion er Voice Control, som tilføjer "fonetiske forslag til tekstredigering". Dette er beregnet til at hjælpe brugere, der skriver med deres stemme, til at vælge det rigtige ord ud af flere enslydende ord, som f.eks. "gør", "forfalder" og "dug". Brugere vil nu også være i stand til at omdanne enhver switch til en virtuel spilcontroller ved hjælp af Switch Control, mens tekststørrelsesjustering nu er nemmere i Mac-apps, som Finder, Beskeder, Mail, Kalender og Noter. Som en del af det nye fokus på tilgængelighed udvider Apple også SignTime til Tyskland, Italien, Spanien og Sydkorea.

Apple forventes at forhåndsvise iOS 17 og iPadOS 17 kommende WWDC23-begivenhed næste måned. Mens de nye operativsystemer oprindeligt forventedes at være mindre opgraderinger i forhold til deres forgængere, tyder nyere rapporter på, at de kunne indeholde flere nye funktioner end tidligere forventet. De nye tilgængelighedsmuligheder skulle gøre disse operativsystemer endnu mere velkomne, især for personer med kognitive handicap og funktionsnedsættelser.