[Opdatering: Live Caption på "Vælg telefoner"] Google arbejder hen imod tilgængelighed med Live Caption på Android Q, Live Relay og Live Transscribe

På Google I/O 2019 har Google afsløret sin indsats for tilgængelighed såsom Live Caption på Android Q, Live Relay og Live Transscribe. Læs videre!

Opdatering 1 (10/05/19 @ 23:53 ET): Ifølge VentureBeat, Live Caption bliver ikke tilgængelig på alle enheder, der kører Android Q. Flere detaljer nedenfor.

Vi som forbrugere tager ofte verden omkring os for givet. Hvad vi oplever, antager vi, at det samme opleves af alle omkring os på samme måde, hvis ikke det samme. Denne formodning fortsætter med at strække sig til alle dele af vores liv, inklusive teknologi. Men handicap er reelle, og at leve med dem bliver en udfordrende opgave på grund af disse formodninger. Tilgængelighed bliver dermed et vigtigt emne, og Google gør sit til at sikre, at mennesker med handicap har en ligelig mulighed for at nyde disse oplevelser. Android Q integrerer flere af Googles tilgængelighedsbestræbelser for at gøre Android til en meget mere sammenhængende oplevelse, selvom ikke alle funktionerne nævnt nedenfor er tilgængelige i Android lige nu.

Live billedtekst

Mange af os gider aldrig kaste et ekstra blik på billedtekstindstillinger, og vi bruger også mange medier uden overhovedet at bemærke fraværet af billedtekster. Men for 466 millioner mennesker rundt om i verden, der er døve og hørehæmmede, tjener billedtekster et formål, der er større end bekvemmelighed - de er selve mediet for oplevelsen. Android Q integrerer Live Captions, der giver brugere fra døvesamfundet mulighed for at få adgang til oplevelser med så meget mere lethed og universalitet.

Når indstillingen er blevet aktiveret, vil Live Caption automatisk undertekster medier, der afspiller lyd på din enhed med et enkelt tryk. Live Caption fungerer med videoer, podcasts, lydbeskeder og enhver anden app – selv med ting, der bliver optaget på enheden. Billedtekster vises, så snart der er registreret tale, der afspilles på enheden. Og da det hele sker gennem talegenkendelse på enheden, forlader hverken lyden eller billedteksterne din telefon, og du kan bruge funktionen uden brug af WiFi eller mobildata.

Opdatering 5/10/19: Google har bekræftet med VentureBeat at Live Caption "kommer til udvalgte telefoner, der kører Android Q senere i år." Specifikt "udvalgte, avancerede enheder," ifølge Brian Kemler, Android-tilgængelighedsproduktchef. Årsagen skyldes tilsyneladende hukommelses- og pladsbegrænsninger. Den indledende udrulning vil være begrænset, men vil udvide sig over tid, og Google planlægger at frigive en liste over enheder, der vil få understøttelse af Live Caption, når vi nærmer os den første offentlige Android Q-udgivelse.

Desuden bekræftede Google, at det ikke vil være muligt at gemme transskription med Live Captions (på grund af en bevidst begrænsning i AudioPlaybackCaptureConfiguration API), at det ikke fungerer med telefonopkald, taleopkald eller videoopkald (fordi det ikke understøttes af API'en), og at det kun understøtter undertekster på engelsk på lancering. Når funktionen lanceres, vil en offline model blive downloadet, og opdateringer til modellen vil blive serveret via Google Play Services.

Live relæ

Live Relay bygger på idéerne fra Live Caption ved at give folk mulighed for at foretage og modtage telefonopkald uden at skulle tale eller høre.

Live Relay bruger talegenkendelse på enheden og tekst-til-tale-konvertering for at give telefonen mulighed for at lytte til et lydopkald og derefter udtale svarene på vegne af den bruger, der indtaster svarene. Funktionen fungerer sammen med forudsigelige skriveforslagsfunktioner som f.eks Smart Compose og Smart svar, hvilket gør det nemmere at holde et liveopkald ved at hjælpe med hurtige svar. Live Relay kører udelukkende på enheden, så opkald er stadig private. Da Live Relay interagerer med den anden side gennem et almindeligt telefonopkald, kan det også fungere med fastnet på den anden side.

Mens Live Relay helt sikkert ville være nyttigt for døve-samfundet og mute-samfundet, strækker dets anvendelsestilfælde sig til situationer, hvor nogen måske ikke er i stand til at tale eller høre et telefonopkald på det tidspunkt, men stadig ønsker at interagere med det. Google er også optimistisk med hensyn til at integrere realtidsoversættelseskapacitet i Live Relay, hvilket igen har potentialet til at lade enhver ringe til enhver anden i verden og kommunikere uanset sprogbarrierer.

Google oplyser, at Live Relay stadig er i forskningsfasen. Det er ikke umiddelbart klart, om funktionen er blevet integreret i de nuværende Android Q builds - vi gætter på, at den vil finde vej til Android-enheder i fremtiden.

Live Transskribering – Udvidelse til brugere med talehandicap

Livetransskribering blev vist frem af Google tidligere i år som et værktøj for døve brugere til at benytte sig af live transskription af tale omkring dem. Appen havde til formål at gøre hverdagssamtaler mere tilgængelige ved at konvertere tale fra den virkelige verden gennem telefonens mikrofon til realtidstekster. Live Transskribering er allerede tilgængelig som en tidlig adgang begrænset beta gennem Play Butik, med understøttelse af over 70 sprog og dialekter. Appen er også forudinstalleret på Pixel 3-enheder.

Live transskribering og notifikationUdvikler: Forskning hos Google

Pris: Gratis.

3.8.

Hent

Googles seneste indsats for at forbedre tilgængeligheden udvider Live Transcribe til ikke kun døve brugere, men også for brugere, der har talehandicap gennem Project Euphonia.

Teamet under Project Euphonia bruger kunstig intelligens til at forbedre en computers evne til at forstå forskellige talemønstre, herunder svækket tale. Google har indgået partnerskab med non-profit organisationer såsom ALS Therapy Development Institute og ALS Residence Initiative for at optage menneskers stemmer ramt af ALS, og brug derefter disse optagelser til at træne AI-modeller til mere pålideligt at transskribere ord, der er talt af mennesker med denne slags tale vanskeligheder. Det nuværende sæt af AI-algoritmer arbejder med det engelske sprog for at imødekomme personer, der har funktionsnedsættelser relateret til ALS, men Google er optimistisk med hensyn til forskningen, der anvendes til større grupper og anderledes tale værdiforringelser.

Yderligere bygger Google også på dette ved at træne personlige AI-algoritmer til at detektere lyde og bevægelser, og foretag derefter handlinger såsom at generere talte kommandoer til Google Home eller sende tekst Beskeder. Denne use case er især nyttig for personer, der er alvorligt handicappede, ikke kan tale og kun kan interagere med ikke-tale lyde og ansigtsbevægelser.

Disse nye funktioner ser ikke ud til at være live i Live Transskribering endnu. Google anmoder om hjælp fra frivillige, der har sløret eller svært at forstå tale, og hvis de er villige til at optage et sæt sætninger for at hjælpe med at træne systemet yderligere til at fungere bedre. Hvis du er berettiget og ønsker at blive frivillig, så tak udfyld formularen til det samme.

Googles indsats for at forbedre tilgængeligheden af ​​teknologi er bestemt prisværdig. Vi håber, at flere softwarevirksomheder arbejder for at give personer med forskellig stand en ligeværdig oplevelse af verden.


Kilde 1: GoogleKilde 2: GoogleKilde 3: Google