Live Transcribe 2.1 bereitet sich darauf vor, Notfallsirenenerkennung, intelligente Segmente und Sprecher-ID hinzuzufügen

Das neueste Update für die Live Transcribe-App enthüllt drei kommende Funktionen, darunter die Erkennung von Notfallsirenen, intelligente Segmente und die Sprecher-ID.

Anfang dieses Jahres bei Google I/O, dem Unternehmen zwei neue Apps eingeführt für Android, um Menschen mit Hörbehinderungen zu helfen – Live Transcribe und Sound Amplifier. Während beide Apps ursprünglich auf Hörgeschädigte ausgerichtet waren, folgte Google später Die Live Transcribe-App wurde aktualisiert um auch Studenten und Journalisten zu helfen. Nach dem Update ermöglichte die App den Nutzern, Transkriptionen lokal auf ihrem Gerät zu speichern und erhielt sogar die Möglichkeit, Geräuschereignisse während der Transkription zu erkennen. Jetzt scheint Google die App für die Einführung von drei weiteren Funktionen vorzubereiten.

Ein APK-Teardown kann oft Funktionen vorhersagen, die in einem zukünftigen Update einer Anwendung verfügbar sein werden, aber es ist möglich, dass eine der hier erwähnten Funktionen in einer zukünftigen Version nicht verfügbar sein wird. Dies liegt daran, dass diese Funktionen derzeit im Live-Build nicht implementiert sind und von den Entwicklern jederzeit in einem zukünftigen Build übernommen werden können.

Ein Teardown des neuesten Updates für Live Transcribe (Version 2.1.276871059) enthüllt Codezeilen, die auf kommende Funktionen hinweisen, darunter „Notrufsirenen anzeigen“, „Smart Segment“ und „Sprecher-ID“. Die Funktion „Notfallsirenen anzeigen“ ermöglicht es der App, Notsirenen zu identifizieren und Benutzer darauf aufmerksam zu machen. Die Zeichenfolgen enthalten auch einen Dialog für die Funktion, der besagt: „Bitte seien Sie vorsichtig, wenn Sirenen gemeldet werden.“ Bedenken Sie, dass nicht alle Sirenen ein Eingreifen erfordern oder einen relevanten Notfall anzeigen (z. B. Sirenen im Fernsehen). Darüber hinaus macht unsere Sirenenerkennung gelegentlich Fehler.“

<stringname="show_emergency_siren_dialog_message">Please exercise caution when sirens are reported. Remember that not all sirens require action or indicate a relevant emergency (sirens on TV, for example). Furthermore, our siren detection will occasionally make mistakes.string>
<stringname="show_emergency_siren_title">Show Emergency Sirensstring>
<stringname="smart_segment">Smart segmentstring>
<stringname="smart_segment_summary">Segment transcript based on performance (rather than text length)string>
<stringname="speaker_id_title">Enable speaker IDstring>

Die Smart-Segment-Funktion unterteilt Transkripte nach Leistung und nicht nach Textlänge, und die Sprecher-ID-Funktion hilft der App, die Sprecher in einem laufenden Gespräch zu identifizieren und zu kennzeichnen. Auch unser Chefredakteur Mishaal Rahman hat einen Blick darauf geworfen GitHub-Repository für Live-Transkribieren welche enthält die Android-Clientbibliotheken, die zur Kommunikation mit der Cloud Speech API von Google verwendet werden und stellte fest, dass das Modul zur automatischen Spracherkennung (ASR) die integrierte Sprecheridentifikation unterstützt. Die Sprecher-ID-Implementierung wird jedoch nicht bereitgestellt und es sieht nicht so aus, als ob die App sie derzeit hat, aber das könnte sich in naher Zukunft ändern.


Vielen Dank an PNF Software für die Bereitstellung einer Nutzungslizenz JEB-Decompiler, ein professionelles Reverse-Engineering-Tool für Android-Anwendungen.