Op Google I/O 2019 heeft Google zijn inspanningen op het gebied van toegankelijkheid onthuld, zoals Live Caption op Android Q, Live Relay en Live Transcribe. Lees verder!
Update 1 (10-5-2019 om 23:53 ET): Volgens VentureBeat, Live ondertiteling is niet beschikbaar op alle apparaten met Android Q. Meer details hieronder.
Wij als consumenten beschouwen de wereld om ons heen vaak als vanzelfsprekend. Wat we ervaren, gaan we ervan uit dat iedereen om ons heen hetzelfde, zo niet hetzelfde, ervaart. Deze veronderstelling strekt zich uit tot elk onderdeel van ons leven, inclusief de technologie. Maar handicaps zijn reëel, en het leven ermee wordt een uitdagende opgave vanwege deze aannames. Toegankelijkheid wordt dus een belangrijk onderwerp, en Google draagt zijn steentje bij om ervoor te zorgen dat mensen met een beperking gelijke kansen krijgen om van deze ervaringen te genieten. Android Q integreert verschillende toegankelijkheidsinspanningen van Google om van Android een veel samenhangende ervaring te maken, hoewel niet alle hieronder genoemde functies momenteel beschikbaar zijn in Android.
Live ondertiteling
Velen van ons nemen nooit de moeite om nog een keer naar de ondertitelingsinstellingen te kijken, en we consumeren ook veel media zonder zelfs maar de afwezigheid van ondertitels op te merken. Maar voor 466 miljoen mensen over de hele wereld die doof en slechthorend zijn, dienen ondertitels een doel dat groter is dan gemak: ze zijn het medium van de ervaring. Android Q integreert Live Captions, waardoor gebruikers uit de dovengemeenschap toegang krijgen tot ervaringen met zoveel meer gemak en universaliteit.
Zodra de instelling is ingeschakeld, ondertitelt Live Caption automatisch met één tik de media die audio op uw apparaat afspelen. Live Caption werkt met video's, podcasts, audioberichten en elke andere app, zelfs met dingen die op het apparaat worden opgenomen. Er verschijnen ondertitels zodra er spraak wordt gedetecteerd op het apparaat. En aangezien dit allemaal gebeurt via spraakherkenning op het apparaat, verlaten noch het geluid, noch de ondertiteling uw telefoon en kunt u de functie gebruiken zonder dat u wifi of mobiele data nodig heeft.
Bijgewerkt 10-5-2019: Google heeft dit bevestigd VentureBeat dat Live Caption "later dit jaar beschikbaar zal zijn op bepaalde telefoons met Android Q." Met name 'geselecteerde, duurdere apparaten', aldus Brian Kemler, productmanager voor Android-toegankelijkheid. De reden is blijkbaar te wijten aan geheugen- en ruimtebeperkingen. De initiële uitrol zal beperkt zijn, maar zal in de loop van de tijd worden uitgebreid, en Google is van plan een lijst met apparaten vrij te geven die ondersteuning zullen krijgen voor Live Caption nu we de eerste openbare Android Q-release naderen.
Bovendien heeft Google bevestigd dat het opslaan van transcripties niet mogelijk zal zijn met Live Captions (vanwege een opzettelijke beperking in de AudioPlaybackCaptureConfiguration API), dat het niet werkt met telefoongesprekken, spraakoproepen of video-oproepen (omdat het niet wordt ondersteund door de API), en dat het alleen ondertiteling in het Engels ondersteunt op launch. Zodra de functie wordt gelanceerd, wordt een offline model gedownload en worden updates van het model aangeboden via Google Play Services.
Live-relais
Live Relay bouwt voort op de ideeën van Live Caption door mensen in staat te stellen te bellen en gebeld te worden zonder te hoeven spreken of horen.
Live Relay maakt gebruik van spraakherkenning op het apparaat en tekst-naar-spraak-conversie, zodat de telefoon naar een audiogesprek kan luisteren en vervolgens de antwoorden kan uitspreken namens de gebruiker die de antwoorden typt. De functie werkt samen met functies voor voorspellende schrijfsuggesties, zoals Slim samenstellen En Slim antwoord, waardoor het gemakkelijker wordt om een live oproep te voeren dankzij snelle reacties. Live Relay draait volledig op het apparaat, dus oproepen zijn nog steeds privé. Omdat Live Relay via een gewoon telefoongesprek met de andere partij communiceert, kan het ook werken met vaste lijnen aan de andere kant.
Hoewel Live Relay zeker nuttig zou zijn voor de dovengemeenschap en de mute-gemeenschap, strekken de gebruiksscenario's zich uit tot situaties waarin iemand op dat moment misschien geen telefoongesprek kan voeren of horen, maar toch wil communiceren ermee. Google is ook optimistisch over het integreren van real-time vertaalmogelijkheden binnen Live Relay, wat op zijn beurt weer tot stand komt heeft het potentieel om iedereen iemand anders ter wereld te laten bellen en te laten communiceren, ongeacht taalbarrières.
Google stelt dat Live Relay zich nog in de onderzoeksfase bevindt. Het is niet meteen duidelijk of de functie is geïntegreerd in de huidige Android Q-builds; we vermoeden dat deze in de toekomst zijn weg zal vinden naar Android-apparaten.
Live transcriptie - Extensie voor gebruikers met spraakproblemen
Live transcriptie werd door Google getoond eerder dit jaar als hulpmiddel voor dove gebruikers om gebruik te maken van live transcriptie van spraak om hen heen. De app had tot doel alledaagse gesprekken toegankelijker te maken door spraak uit de echte wereld via de microfoon van de telefoon om te zetten in realtime ondertiteling. Live transcriptie is al beschikbaar als beperkte bèta met vroege toegang via de Play Store, met ondersteuning voor meer dan 70 talen en dialecten. De app is ook vooraf geïnstalleerd op Pixel 3-apparaten.
Prijs: gratis.
3.8.
De nieuwste inspanningen van Google om de toegankelijkheid te verbeteren, breiden Live Transcribe uit naar niet alleen dove gebruikers, maar ook naar gebruikers met spraakproblemen via Project Euphonia.
Het team van Project Euphonia gebruikt AI om het vermogen van een computer om diverse spraakpatronen te begrijpen, inclusief spraakstoornissen, te verbeteren. Google werkt samen met non-profitorganisaties zoals ALS Therapy Development Institute en ALS Residence Initiative om de stemmen van mensen op te nemen getroffen door ALS, en deze opnames vervolgens gebruiken om AI-modellen te trainen om op een betrouwbaardere manier woorden te transcriberen die worden gesproken door mensen met dit soort spraak moeilijkheden. De huidige reeks AI-algoritmen werkt met de Engelse taal om tegemoet te komen aan personen met beperkingen gerelateerd aan ALS, maar Google is optimistisch over het feit dat het onderzoek wordt toegepast op grotere groepen en verschillende spraakvormen bijzondere waardeverminderingen.
Verder bouwt Google hierop voort door gepersonaliseerde AI-algoritmen te trainen om geluiden te detecteren gebaren en onderneem vervolgens acties zoals het genereren van gesproken opdrachten naar Google Home of het verzenden van tekst berichten. Deze gebruikscasus is vooral nuttig voor mensen die ernstig gehandicapt zijn, niet kunnen praten en alleen kunnen communiceren met niet-spraakgeluiden en gezichtsgebaren.
Deze nieuwe functionaliteiten lijken nog niet live te zijn binnen Live Transcribe. Google vraagt hulp aan vrijwilligers die onduidelijke of moeilijk te verstaan spraak hebben, en of ze bereid zijn een reeks zinnen op te nemen om het systeem verder te trainen zodat het beter werkt. Als u in aanmerking komt en vrijwilligerswerk wilt doen, alstublieft vul hiervoor het formulier in.
De inspanningen van Google om de toegankelijkheid van technologie te verbeteren zijn zeker lovenswaardig. We hopen dat meer softwarebedrijven eraan werken om mensen met een beperking een eerlijke ervaring van de wereld te bieden.
Bron 1: GoogleBron 2: GoogleBron 3: Google