Новите функции трябва да улеснят хората с увреждания и увреждания да използват своите iPhone и iPad.
Apple обяви набор от функции за достъпност за iOS 17 и iPadOS 17 в ход, който според компанията ще има положително въздействие върху живота на потребителите на iPhone с увреждания и увреждания. Съобщението идва само няколко дни преди 12-ия годишен Глобален ден за осведоменост за достъпността, който трябва да бъде отбелязан в четвъртък, 18 май.
Една от най-забележителните нови функции е Assistive Access, която е предназначена за хора с когнитивни увреждания. Характеристиката, която Apple заявява е проектиран с обратна връзка от „хора с когнитивни увреждания и техните доверени поддръжници,“ рационализира интерфейса на iOS и iPadOS, като улеснява хората да говорят с близки, да споделят снимки и да слушат музика. Като част от новата функция приложенията Phone и FaceTime са обединени в едно приложение Calls. Функцията също така включва бутони с висок контраст и големи текстови етикети, всички от които могат да се конфигурират, за да обслужват по-добре хората с нужди от достъпност.
Apple също улеснява общуването на невербалните хора със своята функция Live Speech, която позволява на хората напишете това, което искат да кажат, и го накарайте да го прочете на глас по време на телефонни разговори, чатове във FaceTime и лично разговори. Функцията също така позволява на хората да запазват някои общи думи и фрази, които да се използват, докато говорят с приятели и семейство.
Друга нова функция е Personal Voice, която е насочена към хора, които са изложени на риск да загубят способността си да говорят поради състояния като ALS. Функцията използва машинно обучение, за да генерира уникален персонален глас за всеки отделен потребител. За да създадат личен глас, потребителите трябва да прочетат някои думи и фрази в микрофона на iPhone или iPad за около петнадесет минути. Той се интегрира с Live Speech, за да им позволи да използват собствения си глас, докато говорят с близките си. Personal Voice ще бъде наличен само на английски език и се поддържа само на устройства, захранвани от Apple silicon.
Друга нова функция е Point and Speak, която използва камерата на iPhone и LiDAR скенера, за да позволи на хората с увреждания на зрението да взаимодействат с физически обекти, които имат няколко текстови етикета. Като пример, Apple казва, че функцията може да улесни потребителите с увреждания на зрението да работят по-добре домакински устройства като микровълнова фурна, тъй като може да прочете на глас текста на всеки бутон, когато потребителите преместят пръста си клавиатурата. При стартирането Point and Speak ще бъде достъпен на английски, френски, италиански, немски, испански, португалски, китайски, кантонски, корейски, японски и украински.
Друга забележителна функция е гласовият контрол, който добавя "фонетични предложения за редактиране на текст". Това има за цел да помогне на потребителите, които пишат с гласа си, да изберат правилната дума от няколко подобни звучащи думи, като например „do“, „due“ и „dew“. Потребителите вече ще могат да превърнат всеки превключвател във виртуален контролер за игра, използвайки Switch Control, докато регулирането на размера на текста вече е по-лесно в приложения за Mac, като Finder, Messages, Mail, Calendar и Бележки. Като част от новия фокус върху достъпността, Apple разширява SignTime и в Германия, Италия, Испания и Южна Корея.
Очаква се Apple да визуализира iOS 17 и iPadOS 17 на своя предстоящо събитие WWDC23 следващият месец. Въпреки че първоначално се очакваше новите операционни системи да бъдат незначителни надстройки спрямо своите предшественици, по-нови доклади предполагат, че те могат да включват повече нови функции, отколкото се очакваше преди. Новите опции за достъпност трябва да направят тези операционни системи още по-добре дошли, особено за хора с когнитивни увреждания и увреждания.