[Uppdatering: Live Caption på "Select Phones"] Google arbetar för tillgänglighet med Live Caption på Android Q, Live Relay och Live Transcribe

På Google I/O 2019 har Google avslöjat sina ansträngningar för tillgänglighet som Live Caption på Android Q, Live Relay och Live Transcribe. Läs vidare!

Uppdatering 1 (5/10/19 @ 23:53 ET): Enligt VentureBeat, Live Caption kommer inte att göras tillgänglig på alla enheter som kör Android Q. Mer information nedan.

Vi som konsumenter tar ofta världen omkring oss för given. Det vi upplever, antar vi att detsamma upplevs av alla runt omkring oss i en liknande mening, om inte samma. Denna presumtion fortsätter att sträcka sig till alla delar av vårt liv, inklusive teknik. Men funktionshinder är verkliga, och att leva med dem blir en utmanande uppgift på grund av dessa antaganden. Tillgänglighet blir därmed ett viktigt ämne, och Google gör sitt för att se till att personer med funktionsnedsättning har en rättvis möjlighet att njuta av dessa upplevelser. Android Q integrerar flera av Googles tillgänglighetsansträngningar för att göra Android till en mycket mer sammanhållen upplevelse, även om inte alla funktioner som nämns nedan är tillgängliga i Android just nu.

Live Caption

Många av oss bryr sig aldrig om att ta en andra blick på bildtextinställningar, och vi konsumerar också mycket media utan att ens märka frånvaron av bildtexter. Men för 466 miljoner människor runt om i världen som är döva och hörselskadade tjänar bildtexter ett syfte som är större än bekvämlighet - de är själva mediet för upplevelsen. Android Q integrerar Live Captions, vilket gör det möjligt för användare från dövsamhället att få tillgång till upplevelser med så mycket mer lätthet och universalitet.

När inställningen har aktiverats kommer Live Caption automatiskt att texta media som spelar upp ljud på din enhet med ett enda tryck. Live Caption fungerar med videor, poddsändningar, ljudmeddelanden och alla andra appar – även med saker som spelas in på enheten. Bildtexter kommer att visas så snart tal upptäcks spelas på enheten. Och eftersom allt sker genom taligenkänning på enheten lämnar varken ljudet eller bildtexterna din telefon, och du kan använda funktionen utan att behöva WiFi eller mobildata.

Uppdatering 5/10/19: Google har bekräftat med VentureBeat att Live Caption kommer att "kommer till utvalda telefoner som kör Android Q senare i år." Närmare bestämt "utvalda, avancerade enheter", enligt Brian Kemler, produktchef för Android-tillgänglighet. Anledningen är uppenbarligen på grund av minnes- och utrymmesbegränsningar. Den initiala lanseringen kommer att vara begränsad men kommer att utökas med tiden, och Google planerar att släppa en lista över enheter som kommer att få stöd för Live Caption när vi närmar oss den första offentliga Android Q-versionen.

Dessutom bekräftade Google att det inte går att spara transkription med Live Captions (på grund av en avsiktlig begränsning i AudioPlaybackCaptureConfiguration API), att det inte fungerar med telefonsamtal, röstsamtal eller videosamtal (eftersom det inte stöds av API) och att det bara stöder textning på engelska på lansera. När funktionen lanseras kommer en offlinemodell att laddas ner och uppdateringar av modellen kommer att visas via Google Play Services.

Live relä

Live Relay bygger på idéerna från Live Caption genom att låta människor ringa och ta emot telefonsamtal utan att behöva prata eller höra.

Live Relay använder taligenkänning på enheten och text-till-tal-konvertering för att låta telefonen lyssna på ett ljudsamtal och sedan tala ut svar på uppdrag av användaren som skriver svaren. Funktionen fungerar tillsammans med prediktiva skrivförslagsfunktioner som t.ex Smart skrivning och Smart svar, vilket gör det lättare att hålla ett livesamtal genom att hjälpa till med snabba svar. Live Relay körs helt på enheten, så samtal är fortfarande privata. Eftersom Live Relay interagerar med den andra sidan genom ett vanligt telefonsamtal kan det även fungera med fasta telefoner på andra sidan.

Även om Live Relay verkligen skulle vara till hjälp för döv- och Mute-gemenskapen, sträcker sig dess användningsfall till situationer där någon kanske inte kan prata eller höra ett telefonsamtal just nu, men ändå vill interagera med det. Google är också optimistiskt om att integrera översättningskapacitet i realtid inom Live Relay, vilket i sin tur har potential att låta vem som helst ringa någon annan i världen och kommunicera oavsett språkbarriärer.

Google uppger att Live Relay fortfarande är i forskningsfasen. Det är inte omedelbart klart om funktionen har integrerats i nuvarande Android Q-byggen - vi gissar att den kommer att ta sig till Android-enheter i framtiden.

Transkribera live – tillägg för användare med talskada

Livetranskribering visades upp av Google tidigare i år som ett verktyg för döva användare att utnyttja livetranskription av tal runt omkring dem. Appen syftade till att göra vardagliga konversationer mer tillgängliga genom att konvertera verkligt tal genom telefonens mikrofon till realtidstextning. Live Transkribering är redan tillgänglig som en begränsad betaversion för tidig åtkomst via Play Butik, med stöd för över 70 språk och dialekter. Appen är också förinstallerad på Pixel 3-enheter.

Livetranskribera och aviseringarUtvecklare: Forskning på Google

Pris: Gratis.

3.8.

Ladda ner

Googles senaste ansträngningar för att förbättra tillgängligheten utökar Live Transcribe till inte bara döva användare utan även för användare som har talförstöring genom Project Euphonia.

Teamet under Project Euphonia använder AI för att förbättra en dators förmåga att förstå olika talmönster, inklusive nedsatt tal. Google har samarbetat med ideella organisationer som ALS Therapy Development Institute och ALS Residence Initiative för att spela in människors röster påverkas av ALS, och sedan använda dessa inspelningar för att träna AI-modeller att mer tillförlitligt transkribera ord som talas av människor med den här typen av tal svårigheter. Den nuvarande uppsättningen AI-algoritmer fungerar med det engelska språket för att tillgodose individer som har funktionsnedsättningar relaterat till ALS, men Google är optimistiskt om forskningen tillämpas på större grupper och olika tal funktionsnedsättningar.

Google bygger vidare på detta genom att träna personliga AI-algoritmer för att upptäcka ljud och gester och sedan vidta åtgärder som att generera talade kommandon till Google Home eller skicka text meddelanden. Detta användningsfall är särskilt användbart för personer som är gravt handikappade, inte kan tala och bara kan interagera med ljud som inte är tal och ansiktsgester.

Dessa nya funktioner verkar inte vara aktiva i Live Transcribe ännu. Google ber om hjälp från volontärer som har sluddrigt eller svårt att förstå tal, och om de är villiga att spela in en uppsättning fraser för att hjälpa till att ytterligare träna systemet för att fungera bättre. Om du är berättigad och vill vara volontär, vänligen fyll i formuläret för detsamma.

Googles ansträngningar för att förbättra tillgängligheten för teknik är verkligen lovvärda. Vi hoppas att fler mjukvaruföretag arbetar för att ge individer med olika förutsättningar en rättvis upplevelse av världen.


Källa 1: GoogleKälla 2: GoogleKälla 3: Google