[Aggiornamento: Live Caption su "Seleziona telefoni"] Google lavora per garantire l'accessibilità con Live Caption su Android Q, Live Relay e Live Transcribe

click fraud protection

Al Google I/O 2019, Google ha rivelato i suoi sforzi verso l'accessibilità come Live Caption su Android Q, Live Relay e Live Transcribe. Continuare a leggere!

Aggiornamento 1 (10/05/19 alle 23:53 ET): Secondo VentureBeat, Live Caption non sarà reso disponibile su tutti i dispositivi con Android Q. Maggiori dettagli di seguito.

Noi consumatori spesso diamo per scontato il mondo che ci circonda. Ciò che sperimentiamo, presumiamo che lo stesso venga vissuto da tutti coloro che ci circondano in un senso simile, se non uguale. Questa presunzione si estende a ogni aspetto della nostra vita, compresa la tecnologia. Ma le disabilità sono reali e convivere con loro diventa un compito impegnativo a causa di questi presupposti. L’accessibilità diventa quindi un argomento importante e Google sta facendo la sua parte per garantire che le persone con disabilità abbiano eque opportunità di godere di queste esperienze. Android Q integra molti degli sforzi di Google in materia di accessibilità per rendere Android un'esperienza molto più coesa, sebbene non tutte le funzionalità menzionate di seguito siano disponibili in Android al momento.

Sottotitoli in tempo reale

Molti di noi non si preoccupano mai di dare una seconda occhiata alle impostazioni dei sottotitoli e consumano anche molti media senza nemmeno accorgersi dell'assenza di sottotitoli. Ma per 466 milioni di persone nel mondo che sono sorde e con problemi di udito, i sottotitoli hanno uno scopo più grande della comodità: sono il mezzo stesso dell'esperienza. Android Q integra i sottotitoli in tempo reale, consentendo agli utenti della comunità dei non udenti di accedere alle esperienze con molta più facilità e universalità.

Una volta abilitata l'impostazione, Live Caption sottotitolerà automaticamente i contenuti multimediali che riproducono l'audio sul tuo dispositivo con un solo tocco. Live Caption funziona con video, podcast, messaggi audio e qualsiasi altra app, anche con materiale registrato sul dispositivo. I sottotitoli appariranno non appena verrà rilevata la riproduzione del parlato sul dispositivo. E poiché tutto avviene tramite il riconoscimento vocale sul dispositivo, né l'audio né i sottotitoli lasciano il telefono e puoi utilizzare la funzione senza bisogno del WiFi o dei dati cellulari.

Aggiornamento 10/05/19: Google ha confermato con VentureBeat che Live Caption "arriverà su telefoni selezionati con Android Q entro la fine dell'anno". Nello specifico, "dispositivi selezionati di fascia alta", secondo Brian Kemler, product manager per l'accessibilità Android. Il motivo è apparentemente dovuto alla memoria e ai limiti di spazio. Il lancio iniziale sarà limitato ma si espanderà nel tempo e Google prevede di rilasciare un elenco di dispositivi che riceveranno supporto per Live Caption man mano che ci avviciniamo alla prima versione pubblica di Android Q.

Inoltre, Google ha confermato che il salvataggio della trascrizione non sarà possibile con i Live Captions (a causa di una limitazione intenzionale nella AudioPlaybackCaptureConfiguration API), che non funzionerà con telefonate, chiamate vocali o videochiamate (perché non è supportato dall'API) e che supporterà solo i sottotitoli in inglese all'indirizzo lancio. Una volta avviata la funzionalità, verrà scaricato un modello offline e gli aggiornamenti al modello verranno forniti tramite Google Play Services.

Relè dal vivo

Live Relay si basa sulle idee avanzate da Live Caption consentendo alle persone di effettuare e ricevere telefonate senza dover parlare o ascoltare.

Live Relay utilizza il riconoscimento vocale sul dispositivo e la conversione da testo a voce per consentire al telefono di ascoltare una chiamata audio e quindi pronunciare le risposte per conto dell'utente che le digita. La funzionalità funziona in tandem con funzionalità di suggerimento di scrittura predittiva come Composizione intelligente E Risposta intelligente, rendendo più semplice tenere una chiamata dal vivo favorendo risposte rapide. Live Relay viene eseguito interamente sul dispositivo, quindi le chiamate rimangono private. Poiché Live Relay interagisce con l'altra parte tramite una normale telefonata, può funzionare anche con i telefoni fissi dell'altra parte.

Anche se Live Relay sarebbe sicuramente utile per la comunità dei non udenti e quella dei muti, i suoi casi d'uso si estendono a situazioni in cui qualcuno potrebbe non essere in grado di parlare o ascoltare una telefonata in quel momento, ma desidera comunque interagire con esso. Google è anche ottimista riguardo all'integrazione della funzionalità di traduzione in tempo reale all'interno di Live Relay, che a sua volta ha il potenziale per consentire a chiunque di chiamare chiunque altro nel mondo e comunicare indipendentemente dalle barriere linguistiche.

Google afferma che Live Relay è ancora in fase di ricerca. Non è immediatamente chiaro se la funzionalità sia stata integrata nelle attuali build di Android Q: immaginiamo che arriverà sui dispositivi Android in futuro.

Trascrizione istantanea: estensione per utenti con problemi di linguaggio

Live Transcribe è stato messo in mostra da Google all'inizio di quest'anno come strumento per gli utenti non udenti per usufruire della trascrizione dal vivo del discorso che li circonda. L'app mirava a rendere le conversazioni quotidiane più accessibili convertendo i discorsi del mondo reale attraverso il microfono del telefono in sottotitoli in tempo reale. Trascrizione istantanea lo è già disponibile come beta limitata ad accesso anticipato tramite il Play Store, con supporto per oltre 70 lingue e dialetti. L'app è preinstallata anche sui dispositivi Pixel 3.

Trascrizione e notifica in tempo realeSviluppatore: Ricerca su Google

Prezzo: gratuito.

3.8.

Scaricamento

Gli ultimi sforzi di Google per migliorare l'accessibilità estendono Live Transcribe non solo agli utenti non udenti ma anche agli utenti con problemi di linguaggio attraverso Project Euphonia.

Il team del Progetto Euphonia sta utilizzando l’intelligenza artificiale per migliorare la capacità di un computer di comprendere diversi modelli di linguaggio, compreso il linguaggio compromesso. Google ha collaborato con organizzazioni no-profit come ALS Therapy Development Institute e ALS Residence Initiative per registrare la voce delle persone affetti da SLA, e quindi utilizzare queste registrazioni per addestrare modelli di intelligenza artificiale a trascrivere in modo più affidabile le parole pronunciate da persone con questo tipo di discorso le difficoltà. L’attuale serie di algoritmi di intelligenza artificiale funziona con la lingua inglese per accogliere le persone con disabilità legati alla SLA, ma Google è ottimista riguardo all’applicazione della ricerca a gruppi più ampi e a discorsi diversi menomazioni.

Inoltre, Google si sta basando su questo approccio addestrando algoritmi di intelligenza artificiale personalizzati per rilevare suoni e suoni gesti, quindi esegui azioni come generare comandi vocali a Google Home o inviare SMS messaggi. Questo caso d'uso è particolarmente utile per le persone gravemente disabili, che non possono parlare e possono interagire solo con suoni non vocali e gesti facciali.

Queste nuove funzionalità non sembrano ancora essere attive in Live Transcribe. Google sta chiedendo assistenza ai volontari che hanno parlato in modo confuso o difficile da comprendere e se sono disposti a registrare una serie di frasi per aiutare ad addestrare ulteriormente il sistema a funzionare meglio. Se sei idoneo e desideri fare volontariato, per favore compilare il modulo per lo stesso.

Gli sforzi di Google per migliorare l'accessibilità della tecnologia sono certamente encomiabili. Ci auguriamo che sempre più società di software lavorino per fornire alle persone diversamente abili un’equa esperienza del mondo.


Fonte 1: GoogleFonte 2: GoogleFonte 3: Google