Google은 Google I/O 2019에서 Android Q의 실시간 자막, 실시간 릴레이, 실시간 자막 등 접근성을 위한 노력을 공개했습니다. 읽어!
업데이트 1(2019년 5월 10일 @ 오후 11시 53분(ET)): 에 따르면 벤처비트, Android Q를 실행하는 모든 기기에서는 실시간 자막을 사용할 수 없습니다. 자세한 내용은 아래를 참조하세요.
소비자로서 우리는 종종 우리 주변의 세상을 당연하게 여깁니다. 우리가 경험하는 것은 우리 주변의 모든 사람이 동일하지는 않더라도 유사한 의미로 동일한 경험을 한다고 가정합니다. 이러한 가정은 기술을 포함하여 우리 삶의 모든 부분으로 확장됩니다. 그러나 장애는 현실이며 이러한 가정 때문에 장애와 함께 생활하는 것은 어려운 일이 됩니다. 따라서 접근성이 중요한 주제가 되었으며, Google은 장애인이 이러한 경험을 즐길 수 있는 공평한 기회를 갖도록 보장하는 데 제 역할을 다하고 있습니다. 안드로이드 Q 는 Android를 훨씬 더 응집력 있는 환경으로 만들기 위해 Google의 여러 접근성 노력을 통합합니다. 하지만 아래에 언급된 기능 중 일부는 현재 Android에서 사용할 수 없습니다.
실시간 자막
우리 중 많은 사람들은 캡션 설정을 다시 한 번 살펴보는 일을 전혀 하지 않으며, 캡션이 없다는 사실조차 인지하지 못한 채 많은 미디어를 소비합니다. 그러나 청각 장애가 있거나 난청이 있는 전 세계 4억 6천 6백만 명의 사람들에게 캡션은 편의성 이상의 목적을 제공합니다. 바로 캡션이 바로 경험의 매체입니다. Android Q에는 실시간 자막이 통합되어 있습니다., 청각 장애인 커뮤니티의 사용자가 훨씬 더 쉽고 보편적인 경험에 액세스할 수 있습니다.
설정이 활성화되면 라이브 캡션은 한 번의 탭으로 장치에서 오디오를 재생하는 미디어에 자동으로 캡션을 표시합니다. 실시간 자막은 비디오, 팟캐스트, 오디오 메시지 및 기타 모든 앱에서 작동합니다. 심지어 기기에서 녹음 중인 콘텐츠에서도 작동합니다. 장치에서 음성 재생이 감지되는 즉시 캡션이 표시됩니다. 그리고 모든 작업이 기기 내 음성 인식을 통해 이루어지기 때문에 오디오나 캡션이 휴대전화 외부로 전송되지 않으며 Wi-Fi나 셀룰러 데이터 없이도 이 기능을 사용할 수 있습니다.
2019년 5월 10일 업데이트: Google이 확인했습니다. 벤처비트 라이브 캡션은 "올해 후반에 Android Q를 실행하는 일부 휴대폰에 제공될 것"입니다. 특히 Android 접근성 제품 관리자인 Brian Kemler에 따르면 "고급형 기기를 선택하세요"라고 합니다. 그 이유는 메모리와 공간 제약 때문인 것 같습니다. 초기 출시는 제한적이지만 시간이 지남에 따라 확장될 예정이며, Google은 첫 번째 공개 Android Q 출시가 가까워지면 실시간 캡션을 지원할 기기 목록을 공개할 계획입니다.
또한 Google은 AudioPlaybackCaptureConfiguration의 의도적인 제한으로 인해 라이브 캡션을 사용하여 텍스트 변환을 저장할 수 없음을 확인했습니다. API), 전화 통화, 음성 통화 또는 영상 통화에서는 작동하지 않으며(API에서 지원되지 않기 때문에) 영어 자막만 지원합니다. 시작하다. 기능이 출시되면 오프라인 모델이 다운로드되고 모델 업데이트는 Google Play 서비스를 통해 제공됩니다.
라이브 릴레이
Live Relay는 사람들이 말하거나 들을 필요 없이 전화를 걸고 받을 수 있도록 함으로써 Live Caption의 아이디어를 기반으로 구축되었습니다.
Live Relay는 기기 내 음성 인식 및 텍스트 음성 변환을 사용하여 전화기가 오디오 통화를 듣고 응답을 입력하는 사용자를 대신하여 응답을 말할 수 있도록 합니다. 이 기능은 다음과 같은 예측 글쓰기 제안 기능과 함께 작동합니다. 스마트 작성 그리고 스마트 답장, 빠른 응답을 지원하여 실시간 통화를 더욱 쉽게 할 수 있습니다. Live Relay는 전적으로 기기 내에서 실행되므로 통화는 여전히 비공개입니다. 라이브 릴레이는 일반 전화 통화를 통해 상대방과 상호 작용하므로 상대방의 유선 전화와도 작동할 수 있습니다.
Live Relay는 청각 장애인 커뮤니티와 음소거 커뮤니티에 확실히 도움이 되지만 사용 사례는 다음으로 확장됩니다. 누군가가 그 순간 말을 할 수 없거나 전화 통화를 들을 수 없지만 여전히 상호작용을 원하는 상황 그것으로. Google은 또한 Live Relay에 실시간 번역 기능을 통합하는 것에 대해 낙관하고 있습니다. 누구나 세계 어느 누구에게나 전화를 걸고 언어 장벽에 관계없이 의사소통할 수 있는 잠재력을 가지고 있습니다.
Google은 Live Relay가 아직 연구 단계에 있다고 말합니다. 이 기능이 현재 Android Q 빌드에 통합되었는지 여부는 즉각 명확하지 않습니다. 향후 Android 기기에도 적용될 것으로 추측됩니다.
실시간 자막 -- 언어 장애가 있는 사용자를 위한 확장 프로그램
실시간 자막 변환은 Google에서 선보였습니다. 올해 초 청각 장애 사용자가 주변의 음성을 실시간으로 녹음할 수 있는 도구로 사용되었습니다. 이 앱은 휴대폰 마이크를 통해 전달되는 실제 음성을 실시간 캡션으로 변환하여 일상 대화에 더 쉽게 접근할 수 있도록 하는 것을 목표로 했습니다. 실시간 스크립트 작성은 이미 Play 스토어를 통해 초기 액세스 제한 베타 버전으로 제공되고 있습니다., 70개 이상의 언어와 방언을 지원합니다. 이 앱은 Pixel 3 기기에도 사전 설치되어 있습니다.
가격: 무료.
3.8.
접근성을 개선하기 위한 Google의 최근 노력은 Project Euphonia를 통해 청각 장애가 있는 사용자뿐만 아니라 언어 장애가 있는 사용자에게도 실시간 자막 변환 기능을 확장합니다.
프로젝트 유포니아(Project Euphonia) 팀은 AI를 사용하여 언어 장애를 포함한 다양한 음성 패턴을 이해하는 컴퓨터의 능력을 향상시키고 있습니다. Google은 ALS Therapy Development Institute 및 ALS Residence Initiative와 같은 비영리 단체와 제휴하여 사람들의 목소리를 녹음했습니다. ALS의 영향을 받은 다음 이러한 녹음을 사용하여 AI 모델을 교육하여 이러한 종류의 말을 하는 사람들이 말하는 단어를 보다 안정적으로 기록하도록 합니다. 어려움. 현재 AI 알고리즘 세트는 장애가 있는 개인을 수용하기 위해 영어와 함께 작동합니다. ALS와 관련이 있지만 Google은 연구가 더 큰 그룹과 다양한 언어에 적용되는 것에 대해 낙관적입니다. 장애.
또한 Google은 소리를 감지하고 동작을 수행한 다음 Google Home에 음성 명령을 생성하거나 문자를 보내는 등의 작업을 수행합니다. 메시지. 이 사용 사례는 중증 장애가 있고 말을 할 수 없으며 음성이 아닌 소리와 얼굴 제스처로만 상호 작용할 수 있는 사람들에게 특히 유용합니다.
이러한 새로운 기능은 아직 실시간 자막 변환에 적용되지 않은 것 같습니다. Google은 불분명하거나 말을 이해하기 어려운 자원봉사자에게 지원을 요청하고 있으며, 시스템이 더 잘 작동하도록 추가 교육을 위해 일련의 문구를 녹음할 의향이 있는지 확인합니다. 자격이 있고 자원봉사를 원하시면, 동일한 양식을 작성하세요..
기술의 접근성을 향상하려는 Google의 노력은 확실히 칭찬할 만합니다. 우리는 더 많은 소프트웨어 회사가 장애인에게 공평한 세상 경험을 제공하기 위해 노력하기를 바랍니다.
출처 1: 구글소스 2: 구글소스 3: 구글