[Aktualizacja: napisy na żywo w „Wybierz telefony”] Google pracuje nad ułatwieniem dostępu dzięki napisom na żywo w systemie Android Q, transmisji na żywo i transkrypcji na żywo

Na konferencji Google I/O 2019 firma Google zaprezentowała swoje wysiłki na rzecz ułatwień dostępu, takich jak napisy na żywo w systemie Android Q, transmisja na żywo i transkrypcja na żywo. Czytaj!

Aktualizacja 1 (10.05.19 o 23:53 ET): Według VentureBeat, napisy na żywo nie będą dostępne na wszystkich urządzeniach z Androidem Q. Więcej szczegółów poniżej.

Jako konsumenci często traktujemy otaczający nas świat jako coś oczywistego. To, czego doświadczamy, zakładamy, że tego samego doświadczają wszyscy wokół nas w podobnym, jeśli nie takim samym sensie. To założenie rozciąga się na każdą część naszego życia, w tym na technologię. Jednak niepełnosprawność jest faktem i życie z nią staje się trudnym zadaniem ze względu na te założenia. Dostępność staje się zatem ważnym tematem, a Google dokłada wszelkich starań, aby zapewnić osobom niepełnosprawnym równe szanse na korzystanie z tych doświadczeń. Androida Q łączy w sobie kilka wysiłków Google w zakresie ułatwień dostępu, aby uczynić Androida znacznie bardziej spójnym doświadczeniem, chociaż nie wszystkie funkcje wymienione poniżej są obecnie dostępne w Androidzie.

Napis na żywo

Wielu z nas nigdy nie zadaje sobie trudu, aby raz jeszcze spojrzeć na ustawienia napisów, a ponadto zużywamy dużo multimediów, nawet nie zauważając braku napisów. Jednak w przypadku 466 milionów ludzi na całym świecie, którzy są niesłyszący i niedosłyszący, napisy służą celowi ważniejszemu niż wygoda – są samym środkiem przekazu wrażeń. Android Q integruje napisy na żywo, umożliwiając użytkownikom ze społeczności Głuchych dostęp do doświadczeń z dużo większą łatwością i uniwersalnością.

Po włączeniu tego ustawienia funkcja Live Caption automatycznie doda podpisy do multimediów odtwarzających dźwięk na Twoim urządzeniu za jednym dotknięciem. Napisy na żywo współpracują z filmami, podcastami, wiadomościami audio i dowolną inną aplikacją – nawet z materiałami nagrywanymi na urządzeniu. Napisy pojawią się natychmiast po wykryciu mowy odtwarzanej na urządzeniu. A ponieważ wszystko to odbywa się poprzez rozpoznawanie mowy na urządzeniu, ani dźwięk, ani napisy nie opuszczają telefonu, a możesz korzystać z tej funkcji bez konieczności korzystania z Wi-Fi lub transmisji danych komórkowych.

Aktualizacja 5/10/19: Google potwierdziło VentureBeat napisy na żywo „będą dostępne na wybranych telefonach z systemem Android Q jeszcze w tym roku”. Według Briana Kemlera, menedżera produktu ds. ułatwień dostępu w systemie Android, chodzi konkretnie o „wybrane urządzenia z wyższej półki”. Powodem są najwyraźniej ograniczenia pamięci i przestrzeni. Początkowe wdrożenie będzie ograniczone, ale z czasem będzie się rozszerzać, a Google planuje udostępnić listę urządzeń, które otrzymają obsługę napisów na żywo, gdy będziemy zbliżać się do pierwszej publicznej wersji Androida Q.

Ponadto firma Google potwierdziła, że ​​zapisywanie transkrypcji nie będzie możliwe w przypadku napisów na żywo (ze względu na celowe ograniczenie w konfiguracji AudioPlaybackCaptureConfiguration API), że nie będzie działać z połączeniami telefonicznymi, połączeniami głosowymi ani połączeniami wideo (ponieważ nie jest obsługiwane przez interfejs API) i że będzie obsługiwać napisy tylko w języku angielskim pod adresem początek. Po uruchomieniu tej funkcji zostanie pobrany model offline, a aktualizacje modelu będą udostępniane za pośrednictwem Usług Google Play.

Przekaźnik na żywo

Live Relay opiera się na pomysłach przedstawionych przez Live Caption, umożliwiając ludziom wykonywanie i odbieranie połączeń telefonicznych bez konieczności mówienia lub słuchania.

Live Relay wykorzystuje rozpoznawanie mowy na urządzeniu i konwersję tekstu na mowę, aby umożliwić telefonowi odsłuchiwanie połączenia audio, a następnie wypowiadanie odpowiedzi w imieniu użytkownika, który je wpisuje. Ta funkcja działa w połączeniu z funkcjami predykcyjnymi sugestii pisania, takimi jak Inteligentne komponowanie I Inteligentna odpowiedź, co ułatwia prowadzenie rozmów na żywo, umożliwiając szybkie reagowanie. Live Relay działa całkowicie na urządzeniu, więc rozmowy są nadal prywatne. Ponieważ Live Relay komunikuje się z drugą stroną poprzez zwykłą rozmowę telefoniczną, może także współpracować z telefonami stacjonarnymi po drugiej stronie.

Chociaż funkcja Live Relay z pewnością byłaby pomocna dla społeczności osób niesłyszących i niemych, jej przypadki użycia obejmują m.in sytuacje, w których ktoś może nie być w stanie w danej chwili rozmawiać ani słyszeć rozmowy telefonicznej, a mimo to chce nawiązać kontakt z tym. Google optymistycznie podchodzi również do integracji funkcji tłumaczenia w czasie rzeczywistym w ramach usługi Live Relay, co z kolei oznacza, że ​​będzie to możliwe ma potencjał, aby pozwolić każdemu dzwonić do każdego innego człowieka na świecie i komunikować się bez względu na bariery językowe.

Google twierdzi, że Live Relay jest wciąż w fazie badań. Nie jest od razu jasne, czy funkcja ta została zintegrowana z obecnymi wersjami Androida Q – przypuszczamy, że w przyszłości trafi ona na urządzenia z Androidem.

Transkrypcja na żywo — rozszerzenie dla użytkowników z wadami wymowy

Transkrypcja na żywo została pokazana przez Google na początku tego roku jako narzędzie dla niesłyszących użytkowników umożliwiające transkrypcję mowy na żywo wokół nich. Aplikacja miała na celu uczynienie codziennych rozmów bardziej przystępnymi poprzez konwersję mowy świata rzeczywistego przez mikrofon telefonu na napisy w czasie rzeczywistym. Transkrypcja na żywo jest jest już dostępna jako ograniczona wersja beta wczesnego dostępu w Sklepie Play, obsługujący ponad 70 języków i dialektów. Aplikacja jest także preinstalowana na urządzeniach Pixel 3.

Transkrypcja na żywo i powiadomieniaDeweloper: Badania w Google

Cena: za darmo.

3.8.

Pobierać

Najnowsze wysiłki Google mające na celu poprawę dostępności umożliwiają transkrypcję na żywo nie tylko użytkownikom niesłyszącym, ale także użytkownikom z wadami mowy w ramach projektu Euphonia.

Zespół projektu Euphonia wykorzystuje sztuczną inteligencję, aby poprawić zdolność komputera do rozumienia różnych wzorców mowy, w tym zaburzeń mowy. Google nawiązał współpracę z organizacjami non-profit, takimi jak Instytut Rozwoju Terapii ALS i Inicjatywa Rezydencji ALS, aby nagrywać głosy ludzi dotkniętych ALS, a następnie wykorzystaj te nagrania do szkolenia modeli sztucznej inteligencji w celu bardziej niezawodnej transkrypcji słów wypowiadanych przez osoby posługujące się tego rodzaju mową trudności. Obecny zestaw algorytmów sztucznej inteligencji współpracuje z językiem angielskim, aby dostosować się do potrzeb osób niepełnosprawnych związane z ALS, ale Google optymistycznie podchodzi do zastosowania badań w przypadku większych grup i innej mowy upośledzenia.

Co więcej, Google również na tym bazuje, trenując spersonalizowane algorytmy sztucznej inteligencji w celu wykrywania dźwięków i gesty, a następnie podejmuj działania, takie jak generowanie poleceń głosowych do Google Home lub wysyłanie SMS-a wiadomości. Ten przypadek użycia jest szczególnie przydatny dla osób ze znacznym stopniem niepełnosprawności, które nie mogą mówić i mogą oddziaływać jedynie na dźwięki inne niż mowa i gesty twarzy.

Wygląda na to, że te nowe funkcje nie są jeszcze dostępne w Transkrypcji na żywo. Google prosi o pomoc ochotników, którzy mają niewyraźną lub trudną do zrozumienia mowę i chcą nagrać zestaw wyrażeń, aby pomóc w dalszym szkoleniu systemu, aby lepiej działał. Jeśli spełniasz kryteria i chcesz zostać wolontariuszem, prosimy wypełnij formularz w tym samym celu.

Wysiłki Google mające na celu poprawę dostępności technologii są z pewnością godne pochwały. Mamy nadzieję, że więcej producentów oprogramowania będzie pracować nad zapewnieniem osobom o różnych sprawnościach godziwego doświadczenia świata.


Źródło 1: GoogleŹródło 2: GoogleŹródło 3: Google