Apple avslöjar kommande tillgänglighetsfunktioner, inklusive en röstreplikator

De nya funktionerna ska göra det lättare för personer med funktionshinder och funktionshinder att använda sina iPhones och iPads.

Apple har aviserat en rad tillgänglighetsfunktioner för iOS 17 och iPadOS 17 i ett drag som företaget säger kommer att ha en positiv inverkan på livet för iPhone-användare med funktionshinder och funktionshinder. Tillkännagivandet kommer bara ett par dagar före den 12:e årliga Global Accessibility Awareness Day, som kommer att hållas torsdagen den 18 maj.

En av de mest anmärkningsvärda nya funktionerna är Assistive Access, som är avsedd för personer med kognitiva funktionsnedsättningar. Funktionen, som Apple uppger designades med feedback från "människor med kognitiva funktionsnedsättningar och deras pålitliga anhängare," effektiviserar iOS- och iPadOS-gränssnittet, vilket gör det lättare för människor att prata med nära och kära, dela foton och lyssna på musik. Som en del av den nya funktionen slås telefon- och FaceTime-appar samman till en enda Calls-app. Funktionen inkluderar också högkontrastknappar och stora textetiketter, som alla är konfigurerbara för att bättre betjäna personer med tillgänglighetsbehov.

Apple gör det också lättare för icke-verbala personer att kommunicera med sin Live Speech-funktion som låter människor skriv vad de vill säga och låt det läsas upp högt under telefonsamtal, FaceTime-chattar och personligen samtal. Funktionen gör det också möjligt för människor att spara några vanliga ord och fraser som kan användas medan de pratar med vänner och familj.

En annan nyhet är Personal Voice, som riktar sig till personer som riskerar att förlora sin talförmåga på grund av tillstånd som ALS. Funktionen använder maskininlärning för att generera en unik personlig röst för varje enskild användare. För att skapa personlig röst måste användarna läsa några ord och fraser i iPhone eller iPads mikrofon i cirka femton minuter. Den integreras med Live Speech för att låta dem använda sin egen röst medan de pratar med sina nära och kära. Personal Voice kommer endast att finnas tillgängligt på engelska och stöds endast på enheter som drivs av Apple silicon.

En annan ny funktion är Point and Speak, som använder iPhones kamera och LiDAR-skanner för att göra det möjligt för synskadade att interagera med fysiska föremål som har flera textetiketter. Som ett exempel säger Apple att funktionen kan göra det lättare för användare med synnedsättning att fungera bättre hushållsapparater som mikrovågsugnen, eftersom den kan läsa högt texten på varje knapp när användare flyttar fingret över knappsatsen. Vid lanseringen kommer Point and Speak att finnas tillgängligt på engelska, franska, italienska, tyska, spanska, portugisiska, kinesiska, kantonesiska, koreanska, japanska och ukrainska.

En annan anmärkningsvärd funktion är Voice Control, som lägger till "fonetiska förslag för textredigering". Detta är tänkt att hjälpa användare som skriver med sin röst att välja rätt ord bland flera liknande ord, som till exempel "göra", "på grund" och "dagg". Användare kommer nu också att kunna förvandla vilken switch som helst till en virtuell spelkontroller med Switch Control, medan textstorleksjustering nu är enklare i Mac-appar, som Finder, Messages, Mail, Calendar och Anteckningar. Som en del av det nya fokuset på tillgänglighet utökar Apple även SignTime till Tyskland, Italien, Spanien och Sydkorea.

Apple förväntas förhandsgranska iOS 17 och iPadOS 17 kommande WWDC23-evenemang nästa månad. Medan de nya operativsystemen ursprungligen förväntades vara mindre uppgraderingar jämfört med sina föregångare, tyder nyare rapporter på att de skulle kunna inkludera fler nya funktioner än tidigare förväntat. De nya tillgänglighetsalternativen borde göra dessa operativsystem ännu mer välkomna, särskilt för personer med kognitiva funktionsnedsättningar och funktionsnedsättningar.