[Update: Live Caption auf „Ausgewählte Telefone“] Google arbeitet an der Barrierefreiheit mit Live Caption auf Android Q, Live Relay und Live Transcribe

Auf der Google I/O 2019 hat Google seine Bemühungen um Barrierefreiheit wie Live Caption auf Android Q, Live Relay und Live Transcribe vorgestellt. Weiter lesen!

Update 1 (10.05.19 um 23:53 Uhr ET): Entsprechend VentureBeatLive Caption wird nicht auf allen Geräten mit Android Q verfügbar sein. Weitere Details weiter unten.

Wir als Verbraucher halten die Welt um uns herum oft für selbstverständlich. Was wir erleben, gehen wir davon aus, dass jeder um uns herum dasselbe, wenn nicht sogar dasselbe, in einem ähnlichen Sinne erlebt. Diese Annahme erstreckt sich auf jeden Teil unseres Lebens, einschließlich der Technologie. Aber Behinderungen sind real und das Leben mit ihnen wird aufgrund dieser Annahmen zu einer herausfordernden Aufgabe. Barrierefreiheit wird somit zu einem wichtigen Thema, und Google trägt seinen Teil dazu bei, dass Menschen mit Behinderungen eine gleichberechtigte Möglichkeit haben, diese Erfahrungen zu genießen. Android Q integriert mehrere von Googles Bemühungen zur Barrierefreiheit, um Android zu einem viel zusammenhängenderen Erlebnis zu machen, obwohl derzeit nicht alle der unten genannten Funktionen in Android verfügbar sind.

Live-Untertitel

Viele von uns machen sich nie die Mühe, einen zweiten Blick auf die Untertiteleinstellungen zu werfen, und wir konsumieren auch viele Medien, ohne das Fehlen von Untertiteln überhaupt zu bemerken. Aber für 466 Millionen Menschen auf der ganzen Welt, die gehörlos und schwerhörig sind, dienen Untertitel einem Zweck, der über die Zweckmäßigkeit hinausgeht – sie sind das eigentliche Medium des Erlebnisses. Android Q integriert Live-UntertitelDadurch können Benutzer aus der Gehörlosengemeinschaft viel einfacher und universeller auf Erfahrungen zugreifen.

Sobald die Einstellung aktiviert wurde, beschriftet Live Caption automatisch Medien, die auf Ihrem Gerät Audio abspielen, mit einem einzigen Tastendruck. Live Caption funktioniert mit Videos, Podcasts, Audionachrichten und jeder anderen App – sogar mit Inhalten, die auf dem Gerät aufgezeichnet werden. Untertitel werden angezeigt, sobald die Sprachwiedergabe auf dem Gerät erkannt wird. Und da dies alles über die Spracherkennung auf dem Gerät geschieht, verlassen weder der Ton noch die Untertitel Ihr Telefon und Sie können die Funktion nutzen, ohne WLAN oder Mobilfunkdaten zu benötigen.

Update 10.05.19: Google hat mit bestätigt VentureBeat dass Live Caption „später in diesem Jahr auf ausgewählten Telefonen mit Android Q verfügbar sein wird“. Insbesondere „ausgewählte High-End-Geräte“, so Brian Kemler, Produktmanager für Android-Barrierefreiheit. Der Grund liegt offenbar in Speicher- und Platzbeschränkungen. Der anfängliche Rollout wird begrenzt sein, aber im Laufe der Zeit ausgeweitet werden, und Google plant die Veröffentlichung einer Liste von Geräten, die Live Caption unterstützen, sobald die erste öffentliche Android Q-Veröffentlichung näher rückt.

Darüber hinaus hat Google bestätigt, dass das Speichern der Transkription mit Live-Untertiteln nicht möglich ist (aufgrund einer absichtlichen Einschränkung in der AudioPlaybackCaptureConfiguration). API), dass es nicht mit Telefonanrufen, Sprachanrufen oder Videoanrufen funktioniert (da es von der API nicht unterstützt wird) und dass Untertitel nur auf Englisch unterstützt werden Start. Sobald die Funktion gestartet wird, wird ein Offline-Modell heruntergeladen und Aktualisierungen des Modells werden über die Google Play-Dienste bereitgestellt.

Live-Staffel

Live Relay baut auf den Ideen von Live Caption auf und ermöglicht es Menschen, Anrufe zu tätigen und entgegenzunehmen, ohne sprechen oder hören zu müssen.

Live Relay nutzt die Spracherkennung auf dem Gerät und die Text-zu-Sprache-Konvertierung, damit das Telefon einen Audioanruf abhören und dann Antworten im Namen des Benutzers aussprechen kann, der die Antworten eintippt. Die Funktion arbeitet mit prädiktiven Schreibvorschlagsfunktionen zusammen, z Intelligentes Verfassen Und Intelligente AntwortDies erleichtert das Halten eines Live-Anrufs durch schnelle Antworten. Live Relay läuft vollständig auf dem Gerät, sodass Anrufe weiterhin privat sind. Da Live Relay über einen regulären Telefonanruf mit der Gegenseite interagiert, kann es auch mit Festnetzanschlüssen auf der Gegenseite funktionieren.

Während Live Relay sicherlich für die Gehörlosen- und Stummen-Community hilfreich wäre, erstrecken sich die Anwendungsfälle auch auf Situationen, in denen jemand in diesem Moment möglicherweise nicht sprechen oder einen Anruf hören kann, aber dennoch interagieren möchte damit. Google ist auch optimistisch, was die Integration der Echtzeit-Übersetzungsfunktion in Live Relay angeht hat das Potenzial, dass jeder jeden auf der Welt anrufen und kommunizieren kann, unabhängig von Sprachbarrieren.

Google gibt an, dass sich Live Relay noch in der Forschungsphase befindet. Es ist nicht sofort klar, ob die Funktion in aktuelle Android Q-Builds integriert wurde – wir gehen davon aus, dass sie in Zukunft auf Android-Geräten Einzug halten wird.

Live Transcribe – Erweiterung für Benutzer mit Sprachbehinderungen

Live Transcribe wurde von Google vorgestellt Anfang dieses Jahres als Tool für gehörlose Benutzer, mit dem sie die um sie herum gesprochene Sprache live aufzeichnen können. Ziel der App war es, alltägliche Gespräche zugänglicher zu machen, indem reale Sprache über das Mikrofon des Telefons in Echtzeit-Untertitel umgewandelt wurde. Live Transcribe ist bereits als limitierte Early-Access-Beta über den Play Store verfügbar, mit Unterstützung für über 70 Sprachen und Dialekte. Auch auf Pixel-3-Geräten ist die App vorinstalliert.

Live-Transkription und BenachrichtigungEntwickler: Recherche bei Google

Kostenlos.

3.8.

Herunterladen

Googles jüngste Bemühungen zur Verbesserung der Barrierefreiheit weiten Live Transcribe nicht nur auf gehörlose Nutzer aus, sondern durch Project Euphonia auch auf Nutzer mit Sprachbehinderungen.

Das Team im Rahmen des Projekts Euphonia nutzt KI, um die Fähigkeit eines Computers zu verbessern, verschiedene Sprachmuster, einschließlich beeinträchtigter Sprache, zu verstehen. Google hat mit gemeinnützigen Organisationen wie dem ALS Therapy Development Institute und der ALS Residence Initiative zusammengearbeitet, um die Stimmen von Menschen aufzuzeichnen von ALS betroffen sind, und diese Aufzeichnungen dann verwenden, um KI-Modelle zu trainieren, um Wörter, die von Menschen mit dieser Art von Sprache gesprochen werden, zuverlässiger zu transkribieren Schwierigkeiten. Die aktuellen KI-Algorithmen arbeiten mit der englischen Sprache, um Menschen mit Beeinträchtigungen gerecht zu werden im Zusammenhang mit ALS, aber Google ist optimistisch, dass die Forschung auf größere Gruppen und unterschiedliche Sprachen angewendet werden kann Beeinträchtigungen.

Darüber hinaus baut Google darauf auf, indem es personalisierte KI-Algorithmen trainiert, um Geräusche zu erkennen und Gesten ausführen und dann Aktionen ausführen, z. B. gesprochene Befehle an Google Home generieren oder Text senden Mitteilungen. Dieser Anwendungsfall ist besonders hilfreich für Menschen, die schwerbehindert sind, nicht sprechen können und nur mit Nicht-Sprachgeräuschen und Gesichtsgesten interagieren können.

Diese neuen Funktionen scheinen in Live Transcribe noch nicht verfügbar zu sein. Google bittet Freiwillige um Hilfe, die undeutliche oder schwer verständliche Sprache gesprochen haben, und ob sie bereit sind, eine Reihe von Phrasen aufzuzeichnen, um das System weiter zu trainieren, damit es besser funktioniert. Wenn Sie berechtigt sind und sich ehrenamtlich engagieren möchten, wenden Sie sich bitte an uns Füllen Sie dazu das Formular aus.

Die Bemühungen von Google, die Zugänglichkeit von Technologie zu verbessern, sind sicherlich lobenswert. Wir hoffen, dass sich mehr Softwareunternehmen dafür einsetzen, Menschen mit Behinderungen ein gleichberechtigtes Erlebnis der Welt zu ermöglichen.


Quelle 1: GoogleQuelle 2: GoogleQuelle 3: Google