Apple anuncia novos recursos de acessibilidade do iOS antes da WWDC 2021

click fraud protection

A Apple anunciou uma série de novos recursos que a empresa disse serem projetados para pessoas com deficiência, incluindo algo chamado SignTime.

A Apple anunciou uma série de novos recursos que a empresa disse serem projetados para pessoas com deficiência, incluindo um serviço individual de interpretação de linguagem de sinais chamado SignTime para compras e suporte sessões. O anúncio chega algumas semanas antes Conferência Mundial de Desenvolvedores da Apple, onde se espera revelar atualizações para iOS, watchOS e iPadOS.

Falando nisso, muitas das novas ferramentas revelado pela Apple chegará em atualizações que chegarão às plataformas citadas ainda este ano. Alguns dos novos recursos incluem opções de Assistive Touch, VoiceOver, suporte para aparelhos auditivos e representação aprimorada relacionada à personalização de Memoji. O último recurso representará usuários com tubos de oxigênio, implantes cocleares e um capacete macio para usar na cabeça.

Quanto ao SignTime, o novo serviço está previsto para ser lançado em 20 de maio nos EUA, Reino Unido e França, e espera-se que seja expandido para outros países no futuro. O novo recurso fornecerá às pessoas surdas e com deficiência auditiva acesso ao AppleCare e ao varejista atendimento ao cliente por meio da linguagem de sinais americana (ASL), da linguagem de sinais britânica (BSL) ou da linguagem de sinais francesa (FSL).

A Apple também está trazendo o Assistive Touch para o Apple Watch para usuários com diferenças nos membros superiores do corpo. O recurso usará sensores de movimento integrados, como giroscópio e acelerômetro, junto com aprendizado de máquina no dispositivo, para detectar diferenças sutis no movimento muscular. Isso permitirá que os usuários controlem o Apple Watch, incluindo atender chamadas e acessar a Central de Notificações, sem precisar tocar na tela ou nos controles.

Um novo recurso está trazendo suporte de rastreamento ocular para o iPad. A Apple disse ainda este ano que dispositivos MFi compatíveis rastrearão para onde uma pessoa está olhando na tela e o ponteiro se moverá para seguir o olhar da pessoa. O contato visual prolongado executa uma ação, como um toque, disse a Apple.

A Apple também está introduzindo uma atualização no programa de aparelhos auditivos MFi, adicionando suporte para novos aparelhos auditivos bidirecionais. Os microfones nesses aparelhos auditivos permitirão que aqueles que são surdos e com deficiência auditiva tenham conversas por telefone e FaceTime com viva-voz. Os dispositivos que suportam o programa atualizado de aparelhos auditivos deverão estar disponíveis ainda este ano. A Apple disse que também está trazendo suporte para reconhecimento de audiogramas para acomodações com fones de ouvido.

Além disso, a Apple disse que está introduzindo um novo recurso de sons de fundo, que reproduzirá sons de fundo para mascarar ruídos ambientais indesejados. A empresa disse que esses sons podem minimizar distrações e ajudar os usuários a se concentrarem, acalmarem ou descansarem. Alguns dos sons incluem “ruído equilibrado, claro ou escuro, bem como sons do oceano, chuva ou riacho”. A Apple disse que esses sons serão misturados ou reduzidos a outros sons de áudio e sistema.

Por fim, uma atualização permitirá aos usuários explorar imagens com VoiceOver. Os usuários poderão explorar as imagens de forma mais completa, incluindo detalhes sobre pessoas, texto, dados de tabelas e outros objetos nas imagens.

A Apple disse que esses novos recursos ultrapassam os limites da inovação e trazem a diversão e a função da tecnologia da Apple para ainda mais pessoas. “A acessibilidade é um direito fundamental e estamos sempre ampliando os limites da inovação para que todos possam aprender, criar e se conectar de novas maneiras”, disse o CEO da Apple, Tim Cook, no Twitter.