[Atualização: Live Caption em "Select Phones"] O Google trabalha em prol da acessibilidade com Live Caption no Android Q, Live Relay e Live Transcribe

click fraud protection

No Google I/O 2019, o Google revelou seus esforços em relação à acessibilidade, como Live Caption no Android Q, Live Relay e Live Transcribe. Leia!

Atualização 1 (10/05/19 às 23h53 horário do leste dos EUA): De acordo com VentureBeat, a legenda ao vivo não estará disponível em todos os dispositivos com Android Q. Mais detalhes abaixo.

Nós, como consumidores, muitas vezes consideramos o mundo que nos rodeia um dado adquirido. O que vivenciamos, presumimos que o mesmo é vivenciado por todos ao nosso redor de maneira semelhante, senão igual. Essa presunção se estende a todas as partes da nossa vida, incluindo a tecnologia. Mas as deficiências são reais e viver com elas torna-se uma tarefa desafiadora devido a estes pressupostos. A acessibilidade torna-se assim um tema importante e a Google está a fazer a sua parte para garantir que as pessoas com deficiência tenham oportunidades equitativas de desfrutar destas experiências. AndroidQ integra vários esforços de acessibilidade do Google para tornar o Android uma experiência muito mais coesa, embora nem todos os recursos mencionados abaixo estejam disponíveis no Android no momento.

Legenda ao vivo

Muitos de nós nunca nos preocupamos em dar uma segunda olhada nas configurações de legenda e também consumimos muita mídia sem nem perceber a ausência de legendas. Mas para 466 milhões de pessoas surdas e com deficiência auditiva em todo o mundo, as legendas servem um propósito maior do que a conveniência: são o próprio meio da experiência. Android Q integra legendas ao vivo, permitindo que usuários da comunidade surda acessem experiências com muito mais facilidade e universalidade.

Depois que a configuração for ativada, o Live Caption legendará automaticamente a mídia que está reproduzindo áudio no seu dispositivo com um único toque. O Live Caption funciona com vídeos, podcasts, mensagens de áudio e qualquer outro aplicativo – até mesmo com coisas que estão sendo gravadas no dispositivo. As legendas aparecerão assim que a fala for detectada no dispositivo. E como tudo isso acontece por meio do reconhecimento de fala no dispositivo, nem o áudio nem as legendas saem do telefone, e você pode usar o recurso sem precisar de WiFi ou dados de celular.

Atualização 10/05/19: O Google confirmou com VentureBeat que o Live Caption “chegará a telefones selecionados com Android Q ainda este ano”. Especificamente, “dispositivos selecionados de última geração”, de acordo com Brian Kemler, gerente de produto de acessibilidade do Android. A razão aparentemente se deve a restrições de memória e espaço. O lançamento inicial será limitado, mas se expandirá com o tempo, e o Google planeja lançar uma lista de dispositivos que receberão suporte para Live Caption à medida que nos aproximamos do primeiro lançamento público do Android Q.

Além disso, o Google confirmou que não será possível salvar a transcrição com Live Captions (devido a uma limitação intencional no AudioPlaybackCaptureConfiguration API), que não funcionará com chamadas telefônicas, chamadas de voz ou chamadas de vídeo (porque não é compatível com a API) e que só suportará legendas em inglês em lançar. Assim que o recurso for lançado, um modelo off-line será baixado e as atualizações do modelo serão veiculadas por meio do Google Play Services.

Retransmissão ao vivo

O Live Relay baseia-se nas ideias apresentadas pelo Live Caption, permitindo que as pessoas façam e recebam chamadas sem ter que falar ou ouvir.

O Live Relay usa reconhecimento de fala no dispositivo e conversão de texto em fala para permitir que o telefone ouça uma chamada de áudio e, em seguida, fale as respostas em nome do usuário que as digita. O recurso funciona em conjunto com recursos de sugestão de escrita preditiva, como Escrita inteligente e Resposta inteligente, facilitando a retenção de uma chamada ao vivo, auxiliando em respostas rápidas. O Live Relay é executado inteiramente no dispositivo, portanto as chamadas ainda são privadas. Como o Live Relay interage com o outro lado por meio de uma chamada telefônica normal, ele também pode funcionar com telefones fixos do outro lado.

Embora o Live Relay certamente seja útil para a comunidade surda e muda, seus casos de uso se estendem a situações em que alguém pode não conseguir falar ou ouvir uma ligação naquele momento, mas ainda deseja interagir com isso. O Google também está otimista quanto à integração da capacidade de tradução em tempo real no Live Relay, que por sua vez tem o potencial de permitir que qualquer pessoa ligue para qualquer outra pessoa no mundo e se comunique independentemente das barreiras linguísticas.

O Google afirma que o Live Relay ainda está em fase de pesquisa. Não está imediatamente claro se o recurso foi integrado nas versões atuais do Android Q – acreditamos que ele chegará aos dispositivos Android no futuro.

Transcrição instantânea: extensão para usuários com problemas de fala

A Transcrição instantânea foi exibida pelo Google no início deste ano como uma ferramenta para usuários surdos aproveitarem a transcrição ao vivo da fala ao seu redor. O objetivo do aplicativo era tornar as conversas cotidianas mais acessíveis, convertendo a fala do mundo real através do microfone do telefone em legendas em tempo real. A transcrição instantânea é já disponível como versão beta limitada de acesso antecipado na Play Store, com suporte para mais de 70 idiomas e dialetos. O aplicativo também vem pré-instalado em dispositivos Pixel 3.

Transcrição e notificação ao vivoDesenvolvedor: Pesquisa no Google

Preço: Grátis.

3.8.

Download

Os esforços mais recentes do Google para melhorar a acessibilidade estendem o Live Transcribe não apenas aos usuários surdos, mas também aos usuários com deficiência de fala por meio do Projeto Euphonia.

A equipe do Projeto Euphonia está usando IA para melhorar a capacidade de um computador de compreender diversos padrões de fala, incluindo fala prejudicada. O Google fez parceria com organizações sem fins lucrativos, como ALS Therapy Development Institute e ALS Residence Initiative, para gravar as vozes das pessoas afetados pela ELA e, em seguida, usar essas gravações para treinar modelos de IA para transcrever de maneira mais confiável palavras faladas por pessoas com esse tipo de fala dificuldades. O conjunto atual de algoritmos de IA funciona com o idioma inglês para acomodar indivíduos com deficiências relacionado à ELA, mas o Google está otimista quanto à aplicação da pesquisa a grupos maiores e diferentes discursos deficiências.

Além disso, o Google também está aproveitando isso, treinando algoritmos de IA personalizados para detectar sons e gestos e, em seguida, execute ações como gerar comandos de voz para o Google Home ou enviar texto mensagens. Este caso de uso é particularmente útil para pessoas com deficiência grave, que não conseguem falar e só podem interagir com sons não falados e gestos faciais.

Essas novas funcionalidades ainda não parecem estar disponíveis no Live Transcribe. O Google está solicitando assistência de voluntários que tenham fala arrastada ou difícil de entender e que estejam dispostos a gravar um conjunto de frases para ajudar a treinar ainda mais o sistema para funcionar melhor. Se você é elegível e deseja ser voluntário, por favor preencha o formulário para o mesmo.

Os esforços do Google para melhorar a acessibilidade da tecnologia são certamente louváveis. Esperamos que mais empresas de software trabalhem para proporcionar a indivíduos com necessidades especiais uma experiência equitativa do mundo.


Fonte 1: GoogleFonte 2: GoogleFonte 3: Google