[Oppdatering: Live Caption på "Select Phones"] Google jobber mot tilgjengelighet med Live Caption på Android Q, Live Relay og Live Transscribe

click fraud protection

På Google I/O 2019 har Google avslørt sin innsats for tilgjengelighet som Live Caption på Android Q, Live Relay og Live Transcribe. Les videre!

Oppdatering 1 (5/10/19 @ 23:53 ET): I følge VentureBeat, Live Caption blir ikke tilgjengelig på alle enheter som kjører Android Q. Flere detaljer nedenfor.

Vi som forbrukere tar ofte verden rundt oss for gitt. Det vi opplever, antar vi at det samme oppleves av alle rundt oss på samme måte, om ikke det samme. Denne antagelsen strekker seg videre til alle deler av livet vårt, inkludert teknologi. Men funksjonshemninger er reelle, og det å leve med dem blir en utfordrende oppgave på grunn av disse forutsetningene. Tilgjengelighet blir dermed et viktig tema, og Google gjør sitt for å sikre at personer med nedsatt funksjonsevne har en rettferdig mulighet til å nyte disse opplevelsene. Android Q integrerer flere av Googles tilgjengelighetsarbeid for å gjøre Android til en mye mer sammenhengende opplevelse, selv om ikke alle funksjonene nevnt nedenfor er tilgjengelige i Android akkurat nå.

Direktetekst

Mange av oss gidder aldri å ta et nytt blikk på bildetekstinnstillingene, og vi bruker også mye media uten å legge merke til fraværet av bildetekster. Men for 466 millioner mennesker rundt om i verden som er døve og tunghørte, tjener bildetekster en hensikt som er større enn bekvemmelighet - de er selve mediet for opplevelsen. Android Q integrerer Live Captions, som lar brukere fra døvesamfunnet få tilgang til opplevelser med så mye mer letthet og universalitet.

Når innstillingen er aktivert, vil Live Caption automatisk tekste media som spiller av lyd på enheten din med et enkelt trykk. Live Caption fungerer med videoer, podcaster, lydmeldinger og alle andre apper – selv med ting som blir tatt opp på enheten. Teksting vises så snart tale er oppdaget som spilles av på enheten. Og siden alt skjer gjennom talegjenkjenning på enheten, forlater verken lyden eller bildetekstene telefonen din, og du kan bruke funksjonen uten å trenge WiFi eller mobildata.

Oppdatering 5/10/19: Google har bekreftet med VentureBeat at Live Caption vil "kommer til utvalgte telefoner som kjører Android Q senere i år." Nærmere bestemt «utvalgte, avanserte enheter», ifølge Brian Kemler, produktsjef for Android-tilgjengelighet. Årsaken er tilsynelatende på grunn av minne og plassbegrensninger. Den første utrullingen vil være begrenset, men vil utvide seg over tid, og Google planlegger å gi ut en liste over enheter som vil få støtte for Live Caption når vi nærmer oss den første offentlige Android Q-utgivelsen.

Videre bekreftet Google at lagring av transkripsjon ikke vil være mulig med Live Captions (på grunn av en tilsiktet begrensning i AudioPlaybackCaptureConfiguration API), at det ikke vil fungere med telefonsamtaler, taleanrop eller videosamtaler (fordi det ikke støttes av API), og at det kun støtter teksting på engelsk på lansering. Når funksjonen lanseres, vil en offline-modell lastes ned, og oppdateringer til modellen vil bli servert gjennom Google Play-tjenester.

Live stafett

Live Relay bygger på ideene fra Live Caption ved å la folk ringe og motta telefonsamtaler uten å måtte snakke eller høre.

Live Relay bruker talegjenkjenning på enheten og tekst-til-tale-konvertering for å la telefonen lytte til et lydanrop og deretter si svar på vegne av brukeren som skriver svarene. Funksjonen fungerer sammen med prediktive skriveforslagsfunksjoner som f.eks Smart skriving og Smart svar, noe som gjør det enklere å holde en direkte samtale ved å hjelpe til med raske svar. Live Relay kjører helt på enheten, så samtaler er fortsatt private. Siden Live Relay samhandler med den andre siden gjennom en vanlig telefonsamtale, kan den også fungere med fasttelefoner på den andre siden.

Mens Live Relay absolutt ville være nyttig for døvesamfunnet og Mute-samfunnet, strekker det seg til situasjoner der noen kanskje ikke kan snakke eller høre en telefonsamtale i det øyeblikket, men likevel ønsker å samhandle med det. Google er også optimistisk med tanke på å integrere sanntidsoversettelsesevne i Live Relay, som igjen har potensial til å la hvem som helst ringe noen andre i verden og kommunisere uavhengig av språkbarrierer.

Google opplyser at Live Relay fortsatt er i forskningsfasen. Det er ikke umiddelbart klart om funksjonen har blitt integrert i nåværende Android Q-bygg - vi tipper at den vil finne veien til Android-enheter i fremtiden.

Direktetranskribering – Utvidelse for brukere med talevansker

Direktetranskribering ble vist frem av Google tidligere i år som et verktøy for døve brukere for å benytte seg av direkte transkripsjon av tale rundt seg. Appen hadde som mål å gjøre hverdagssamtaler mer tilgjengelige ved å konvertere tale fra den virkelige verden gjennom telefonens mikrofon til sanntidstekster. Direktetranskribering er allerede tilgjengelig som en beta med begrenset tidlig tilgang gjennom Play Store, med støtte for over 70 språk og dialekter. Appen er også forhåndsinstallert på Pixel 3-enheter.

Direkte transkribering og varslingUtvikler: Forskning hos Google

Pris: Gratis.

3.8.

nedlasting

Googles siste innsats for å forbedre tilgjengeligheten utvider Live Transscribe til ikke bare døve brukere, men også for brukere som har talevansker gjennom Project Euphonia.

Teamet under Project Euphonia bruker kunstig intelligens for å forbedre en datamaskins evne til å forstå ulike talemønstre, inkludert svekket tale. Google har inngått samarbeid med ideelle organisasjoner som ALS Therapy Development Institute og ALS Residence Initiative for å spille inn stemmene til folk påvirket av ALS, og deretter bruke disse opptakene til å trene AI-modeller til mer pålitelig å transkribere ord som snakkes av folk med denne typen tale vanskeligheter. Det nåværende settet med AI-algoritmer fungerer med det engelske språket for å imøtekomme personer som har funksjonsnedsettelser relatert til ALS, men Google er optimistisk med tanke på at forskningen blir brukt på større grupper og annerledes tale svekkelser.

Videre bygger Google også på dette ved å trene personlige AI-algoritmer for å oppdage lyder og bevegelser, og deretter utføre handlinger som å generere talekommandoer til Google Home eller sende tekst meldinger. Denne brukssaken er spesielt nyttig for personer som er alvorlig funksjonshemmede, ikke kan snakke og bare kan samhandle med ikke-talelyder og ansiktsbevegelser.

Disse nye funksjonene ser ikke ut til å være aktive i direktetranskribering ennå. Google ber om hjelp fra frivillige som har slørete eller vanskelige å forstå tale, og hvis de er villige til å spille inn et sett med fraser for å hjelpe med å trene systemet til å fungere bedre. Hvis du er kvalifisert og ønsker å være frivillig, vennligst fyll ut skjemaet for det samme.

Googles innsats for å forbedre tilgjengeligheten til teknologi er absolutt prisverdig. Vi håper flere programvareselskaper jobber for å gi personer med ulike funksjonsevner en rettferdig opplevelse av verden.


Kilde 1: GoogleKilde 2: GoogleKilde 3: Google