[Actualización: Live Caption en "Teléfonos seleccionados"] Google trabaja para lograr accesibilidad con Live Caption en Android Q, Live Relay y Live Transcribe

En Google I/O 2019, Google reveló sus esfuerzos hacia la accesibilidad, como Live Caption en Android Q, Live Relay y Live Transcribe. ¡Sigue leyendo!

Actualización 1 (10/05/19 a las 11:53 p.m. ET): De acuerdo a VentureBeat, Live Caption no estará disponible en todos los dispositivos que ejecutan Android Q. Más detalles a continuación.

Nosotros, como consumidores, a menudo damos por sentado el mundo que nos rodea. Lo que experimentamos, suponemos que lo experimentan todos los que nos rodean en un sentido similar, si no el mismo. Esta presunción se extiende a todos los aspectos de nuestra vida, incluida la tecnología. Pero las discapacidades son reales y vivir con ellas se convierte en una tarea desafiante debido a estas suposiciones. Por lo tanto, la accesibilidad se convierte en un tema importante y Google está haciendo su parte para garantizar que las personas con discapacidades tengan una oportunidad equitativa de disfrutar de estas experiencias. Android Q integra varios de los esfuerzos de accesibilidad de Google para hacer de Android una experiencia mucho más coherente, aunque no todas las funciones mencionadas a continuación están disponibles en Android en este momento.

Subtítulo en vivo

Muchos de nosotros nunca nos molestamos en echar un segundo vistazo a la configuración de subtítulos y también consumimos muchos medios sin siquiera notar la ausencia de subtítulos. Pero para 466 millones de personas en todo el mundo que son sordas y tienen problemas de audición, los subtítulos tienen un propósito mayor que la conveniencia: son el medio mismo de la experiencia. Android Q integra subtítulos en vivo, permitiendo a los usuarios de la comunidad Sorda acceder a experiencias con mucha más facilidad y universalidad.

Una vez que se haya habilitado la configuración, Live Caption subtitulará automáticamente los medios que se reproducen audio en su dispositivo con un solo toque. Live Caption funciona con videos, podcasts, mensajes de audio y cualquier otra aplicación, incluso con cosas que se están grabando en el dispositivo. Los subtítulos aparecerán tan pronto como se detecte voz reproduciéndose en el dispositivo. Y como todo esto ocurre a través del reconocimiento de voz en el dispositivo, ni el audio ni los subtítulos salen de tu teléfono, y puedes usar la función sin necesidad de WiFi o datos móviles.

Actualización 10/05/19: Google ha confirmado con VentureBeat que Live Caption "llegará a teléfonos seleccionados con Android Q a finales de este año". Específicamente, "dispositivos selectos de gama alta", según Brian Kemler, gerente de productos de accesibilidad de Android. La razón aparentemente se debe a limitaciones de memoria y espacio. El lanzamiento inicial será limitado pero se expandirá con el tiempo, y Google planea publicar una lista de dispositivos que serán compatibles con Live Caption a medida que nos acercamos al primer lanzamiento público de Android Q.

Además, Google confirmó que no será posible guardar la transcripción con Live Captions (debido a una limitación intencional en AudioPlaybackCaptureConfiguration). API), que no funcionará con llamadas telefónicas, llamadas de voz o videollamadas (porque no es compatible con la API) y que solo admitirá subtítulos en inglés en lanzamiento. Una vez que se inicie la función, se descargará un modelo sin conexión y las actualizaciones del modelo se proporcionarán a través de los servicios de Google Play.

Retransmisión en vivo

Live Relay se basa en las ideas presentadas por Live Caption al permitir que las personas hagan y reciban llamadas telefónicas sin tener que hablar ni escuchar.

Live Relay utiliza reconocimiento de voz en el dispositivo y conversión de texto a voz para permitir que el teléfono escuche una llamada de audio y luego pronuncie las respuestas en nombre del usuario que escribe las respuestas. La función funciona en conjunto con funciones de sugerencia de escritura predictiva, como Redacción inteligente y Respuesta inteligente, lo que facilita la realización de una llamada en vivo al ayudar a respuestas rápidas. Live Relay se ejecuta completamente en el dispositivo, por lo que las llamadas siguen siendo privadas. Dado que Live Relay interactúa con el otro lado a través de una llamada telefónica normal, también puede funcionar con teléfonos fijos del otro lado.

Si bien Live Relay sin duda sería útil para la comunidad de sordos y mudos, sus casos de uso se extienden a situaciones en las que es posible que alguien no pueda hablar o escuchar una llamada telefónica en ese momento, pero aún desea interactuar con eso. Google también es optimista acerca de integrar la capacidad de traducción en tiempo real dentro de Live Relay, lo que a su vez tiene el potencial de permitir que cualquiera llame a cualquier otra persona en el mundo y se comunique sin importar las barreras del idioma.

Google afirma que Live Relay aún se encuentra en la fase de investigación. No está claro de inmediato si la función se ha integrado en las versiones actuales de Android Q; suponemos que llegará a los dispositivos Android en el futuro.

Live Transcribe: extensión para usuarios con problemas del habla

Google mostró Live Transcribe a principios de este año como una herramienta para que los usuarios sordos aprovechen la transcripción en vivo del habla que los rodea. La aplicación tenía como objetivo hacer que las conversaciones cotidianas fueran más accesibles al convertir el habla del mundo real a través del micrófono del teléfono en subtítulos en tiempo real. Transcripción en vivo es ya disponible como beta limitada de acceso anticipado a través de Play Store, con soporte para más de 70 idiomas y dialectos. La aplicación también está preinstalada en dispositivos Pixel 3.

Transcripción en vivo y notificaciónDesarrollador: Investigación en Google

Precio: Gratis.

3.8.

Descargar

Los últimos esfuerzos de Google para mejorar la accesibilidad extienden Live Transcribe no solo a los usuarios sordos sino también a los usuarios con problemas del habla a través del Proyecto Euphonia.

El equipo del Proyecto Euphonia está utilizando IA para mejorar la capacidad de una computadora para comprender diversos patrones del habla, incluido el habla deficiente. Google se ha asociado con organizaciones sin fines de lucro como ALS Therapy Development Institute y ALS Residence Initiative para grabar las voces de las personas. afectados por ELA, y luego usar estas grabaciones para entrenar modelos de inteligencia artificial para transcribir de manera más confiable palabras pronunciadas por personas con este tipo de habla dificultades. El conjunto actual de algoritmos de IA funciona con el idioma inglés para adaptarse a las personas con discapacidades. relacionado con la ELA, pero Google es optimista acerca de que la investigación se aplique a grupos más grandes y diferentes formas de habla. deficiencias.

Además, Google también está aprovechando esto entrenando algoritmos de IA personalizados para detectar sonidos y gestos y luego realizar acciones como generar comandos hablados a Google Home o enviar mensajes de texto mensajes. Este caso de uso es particularmente útil para personas con discapacidades graves, que no pueden hablar y que solo pueden interactuar con sonidos y gestos faciales que no son del habla.

Estas nuevas funcionalidades no parecen estar disponibles en Live Transcribe todavía. Google está solicitando ayuda de voluntarios que tienen dificultades para entender el habla o que tienen dificultad para entender el habla, y si están dispuestos a grabar un conjunto de frases para ayudar a entrenar aún más el sistema para que funcione mejor. Si es elegible y desea ser voluntario, por favor llene el formulario para el mismo.

Los esfuerzos de Google para mejorar la accesibilidad de la tecnología son ciertamente encomiables. Esperamos que más empresas de software trabajen para brindar a las personas con capacidades diferentes una experiencia equitativa del mundo.


Fuente 1: GoogleFuente 2: GoogleFuente 3: Google