[Оновлення: Живі субтитри на «Вибраних телефонах»] Google працює над доступністю за допомогою Live Caption на Android Q, Live Relay і Live Transcribe

На Google I/O 2019 компанія Google розповіла про свої зусилля щодо доступності, наприклад Live Caption на Android Q, Live Relay і Live Transcribe. Читай далі!

Оновлення 1 (10.05.19 о 23:53 за східним часом): Відповідно до VentureBeat, Live Caption не буде доступним на всіх пристроях з Android Q. Детальніше нижче.

Ми як споживачі часто сприймаємо навколишній світ як належне. Те, що ми відчуваємо, ми припускаємо, що те саме відчувають усі навколо нас у подібному сенсі, якщо не однаково. Це припущення поширюється на кожну частину нашого життя, включаючи технології. Але інвалідність реальна, і жити з нею стає складним завданням через ці презумпції. Таким чином, доступність стає важливою темою, і Google робить свій внесок у забезпечення того, щоб люди з обмеженими можливостями мали рівні можливості насолоджуватися цим досвідом. Android Q об’єднує декілька зусиль Google щодо доступності, щоб зробити Android набагато ціліснішим, хоча не всі функції, згадані нижче, зараз доступні в Android.

Живі субтитри

Багато з нас ніколи не намагаються кинути другий погляд на налаштування субтитрів, і ми також споживаємо багато медіа, навіть не помічаючи відсутності субтитрів. Але для 466 мільйонів людей у ​​всьому світі, які є глухими та погано чуючими, субтитри служать цілі, більшій, ніж зручність, вони є самим засобом спілкування. Android Q інтегрує живі субтитри, що дозволяє користувачам із спільноти глухих отримувати доступ до досвіду з набагато більшою легкістю та універсальністю.

Після ввімкнення цього параметра Live Caption автоматично створюватиме субтитри для медіафайлів, які відтворюють аудіо на вашому пристрої, одним дотиком. Живі субтитри працюють із відео, подкастами, аудіоповідомленнями та будь-якою іншою програмою, навіть із тим, що записується на пристрої. Субтитри з’являться, щойно на пристрої буде виявлено відтворення мовлення. А оскільки все це відбувається через розпізнавання мовлення на пристрої, ані аудіо, ані субтитри не залишають ваш телефон, і ви можете використовувати цю функцію без потреби в Wi-Fi або стільникових даних.

Оновлення 10.05.19: Google підтвердив VentureBeat що Live Caption «з'явиться на деяких телефонах з Android Q пізніше цього року». Зокрема, «вибрані пристрої вищого класу», за словами Браяна Кемлера, менеджера з продуктів доступності Android. Причина, очевидно, пов’язана з обмеженнями пам’яті та місця. Початковий розгортання буде обмеженим, але з часом розширюватиметься, і Google планує випустити список пристроїв, які отримають підтримку Live Caption, оскільки ми наближаємося до першого публічного випуску Android Q.

Крім того, Google підтвердив, що збереження транскрипції буде неможливим за допомогою Live Captions (через навмисне обмеження в AudioPlaybackCaptureConfiguration API), що він не працюватиме з телефонними дзвінками, голосовими дзвінками чи відеодзвінками (оскільки це не підтримується API), і що він підтримуватиме лише субтитри англійською мовою на запуск. Після запуску функції офлайн-модель буде завантажено, а оновлення моделі обслуговуватимуться через служби Google Play.

Жива естафета

Live Relay базується на ідеях Live Caption, дозволяючи людям здійснювати та приймати телефонні дзвінки, не потребуючи розмови чи чуття.

Live Relay використовує розпізнавання мовлення на пристрої та перетворення тексту на мовлення, щоб дозволити телефону прослуховувати аудіодзвінок, а потім озвучувати відповіді від імені користувача, який вводить відповіді. Ця функція працює разом із функціями інтелектуального написання, такими як Smart Compose і Розумна відповідь, що полегшує утримання виклику в режимі реального часу завдяки швидкій відповіді. Live Relay повністю працює на пристрої, тому дзвінки залишаються приватними. Оскільки Live Relay взаємодіє з іншою стороною через звичайний телефонний дзвінок, вона також може працювати зі стаціонарними телефонами іншої сторони.

Хоча Live Relay, безумовно, буде корисним для спільноти глухих і німих, його випадки використання поширюються на ситуації, коли хтось не може говорити або чути телефонний дзвінок у цей момент, але все одно хоче взаємодіяти з цим. Google також оптимістично налаштований щодо інтеграції можливості перекладу в реальному часі в Live Relay, що, у свою чергу, має потенціал, щоб будь-хто міг дзвонити будь-кому у світі та спілкуватися незалежно від мовних бар’єрів.

Google заявляє, що Live Relay все ще перебуває на стадії дослідження. Не відразу зрозуміло, чи була ця функція інтегрована в поточні збірки Android Q — ми припускаємо, що в майбутньому вона потрапить на пристрої Android.

Жива транскрипція – розширення для користувачів із вадами мовлення

Google продемонстрував миттєву транскрипцію на початку цього року як інструмент для глухих користувачів, щоб скористатися живою транскрипцією мовлення навколо них. Додаток мав на меті зробити повсякденні розмови більш доступними, перетворюючи реальне мовлення через мікрофон телефону на субтитри в реальному часі. Жива транскрипція є вже доступна як обмежена бета-версія раннього доступу через Play Store, з підтримкою понад 70 мов і діалектів. Програма також попередньо встановлена ​​на пристроях Pixel 3.

Жива транскрипція та сповіщенняРозробник: Дослідження в Google

Ціна: безкоштовно.

3.8.

Завантажити

Останні зусилля Google щодо покращення доступності поширюють Live Transscribe не лише на глухих користувачів, але й на користувачів із вадами мовлення через Project Euphonia.

Команда проекту Euphonia використовує штучний інтелект, щоб покращити здатність комп’ютера розуміти різноманітні моделі мовлення, включаючи порушення мови. Google співпрацює з такими некомерційними організаціями, як Інститут розвитку терапії АЛС та Ініціатива проживання АЛС, щоб записувати голоси людей уражених АЛС, а потім використовувати ці записи, щоб навчити моделі штучного інтелекту більш надійно транскрибувати слова, вимовлені людьми з таким типом мовлення ускладнення. Поточний набір алгоритмів штучного інтелекту працює з англійською мовою, щоб пристосуватися до людей із вадами пов’язані з АЛС, але Google оптимістично дивиться на дослідження, які застосовуються до більших груп і різного мовлення порушення.

Крім того, Google також розвиває це, навчаючи персоналізовані алгоритми ШІ для виявлення звуків і жести, а потім виконувати такі дії, як створення голосових команд до Google Home або надсилання тексту повідомлення. Цей варіант використання особливо корисний людям із серйозними вадами, які не можуть говорити та можуть взаємодіяти лише з немовними звуками та жестами обличчя.

Схоже, що ці нові функції поки що не працюють у миттєвій транскрипції. Google просить допомоги у волонтерів, які мають невиразне або важкозрозуміле мовлення, і якщо вони бажають записати набір фраз, щоб навчити систему працювати краще. Якщо ви відповідаєте вимогам і хочете бути волонтером, будь ласка заповніть форму для того ж.

Зусилля Google щодо покращення доступності технологій, безперечно, заслуговують похвали. Ми сподіваємося, що більше компаній, що займаються програмним забезпеченням, працюватимуть над тим, щоб надати людям з різними можливостями рівноправний досвід у світі.


Джерело 1: GoogleДжерело 2: GoogleДжерело 3: Google