Apple ha anunciado una serie de funciones nuevas que, según la compañía, están diseñadas para personas con discapacidades, incluido algo llamado SignTime.
Apple ha anunciado una serie de funciones nuevas que, según la compañía, están diseñadas para personas con discapacidades. incluido un servicio de interpretación de lenguaje de señas personalizado llamado SignTime para compras y soporte sesiones. El anuncio llega unas semanas antes de Conferencia mundial de desarrolladores de Apple, donde se espera que revele actualizaciones para iOS, watchOS y iPadOS.
Hablando de eso, muchas de las nuevas herramientas presentado por Apple Llegará en actualizaciones que llegarán a las plataformas antes mencionadas a finales de este año. Algunas de las nuevas características incluyen opciones para Assistive Touch, VoiceOver, soporte para audífonos y representación mejorada relacionada con la personalización de Memoji. Esta última característica representará a usuarios con tubos de oxígeno, implantes cocleares y un casco blando para la cabeza.
En cuanto a SignTime, el nuevo servicio se lanzará el 20 de mayo en EE. UU., Reino Unido y Francia, y se espera que se expanda a más países en el futuro. La nueva función proporcionará a las personas sordas y con problemas de audición acceso a AppleCare y al minorista atención al cliente a través del lenguaje de señas americano (ASL), el lenguaje de señas británico (BSL) o el lenguaje de señas francés (FSL).
Apple también trae Assistive Touch al Apple Watch para usuarios con diferencias en las extremidades superiores del cuerpo. La función utilizará sensores de movimiento integrados como el giroscopio y el acelerómetro, junto con el aprendizaje automático en el dispositivo, para detectar diferencias sutiles en el movimiento muscular. Esto permitirá a los usuarios controlar el Apple Watch, incluso responder llamadas entrantes y acceder al Centro de notificaciones, sin tener que tocar la pantalla ni los controles.
Una nueva característica trae soporte de seguimiento ocular al iPad. Apple dijo a finales de este año que los dispositivos MFi compatibles rastrearán dónde mira una persona en la pantalla y el puntero se moverá para seguir la mirada de la persona. El contacto visual prolongado realiza una acción, como un toque, dijo Apple.
Apple también presenta una actualización del programa de dispositivos auditivos MFi, agregando soporte para nuevos audífonos bidireccionales. Los micrófonos de estos audífonos permitirán a las personas sordas y con problemas de audición tener conversaciones telefónicas y FaceTime con manos libres. Los dispositivos compatibles con el programa actualizado de dispositivos auditivos estarán disponibles a finales de este año. Apple dijo que también brindará soporte para reconocer audiogramas a las adaptaciones para auriculares.
Además, Apple dijo que está introduciendo una nueva función de sonidos de fondo, que reproducirá sonidos de fondo para enmascarar el ruido ambiental no deseado. La compañía dijo que estos sonidos pueden minimizar las distracciones y ayudar a los usuarios a concentrarse, calmarse o descansar. Algunos de los sonidos incluyen “ruido equilibrado, brillante u oscuro, así como sonidos del océano, la lluvia o los arroyos”. Apple dijo que estos sonidos se mezclarán o se ocultarán con otros sonidos de audio y del sistema.
Finalmente, una actualización permitirá a los usuarios explorar imágenes con VoiceOver. Los usuarios podrán explorar las imágenes más a fondo, incluidos detalles sobre las personas, el texto, los datos de las tablas y otros objetos dentro de las imágenes.
Apple dijo que estas nuevas funciones traspasan los límites de la innovación y llevan la diversión y la funcionalidad de la tecnología de Apple a aún más personas. "La accesibilidad es un derecho fundamental y siempre estamos superando los límites de la innovación para que todos puedan aprender, crear y conectarse de nuevas maneras", dijo el director ejecutivo de Apple, Tim Cook, en Twitter.