En Google I/O 2021, Google habló sobre cómo está haciendo que el aprendizaje automático sea más rápido y más consistente para los desarrolladores en todos los dispositivos Android.
Tras la presentación principal de ayer en Google I/O 2021, la empresa realizó varias sesiones que ahora están disponibles bajo demanda a través de YouTube. Una de las sesiones cubrió las novedades en el aprendizaje automático para Android y cómo Google lo está haciendo más rápido y consistente para los desarrolladores.
El aprendizaje automático es responsable de impulsar las funciones que los propietarios de Android usan todos los días, desde el desenfoque del fondo en las imágenes, el reemplazo del fondo en las aplicaciones de videollamadas y subtítulos en vivo en llamadas en teléfonos Pixel. Si bien el aprendizaje automático se está volviendo cada vez más avanzado, Google dijo que todavía existen varios desafíos en la implementación de funciones impulsadas por ML, incluidas preocupaciones sobre la sobrecarga de aplicaciones y la variación del rendimiento. También hay problemas con la disponibilidad de funciones porque no todos los dispositivos tienen acceso a las mismas API o versiones de API.
Imagen: Google
Para resolver esto, Google está anunciando la pila de inferencia ML totalmente integrada y actualizable de Android, por lo que habrá un conjunto de componentes comunes en todos los dispositivos que simplemente funcionan juntos. Esto aporta los siguientes beneficios a los desarrolladores de aplicaciones:
- Los desarrolladores ya no necesitan agrupar código para la inferencia en el dispositivo en su propia aplicación.
- Las API de aprendizaje automático están más integradas con Android para ofrecer un mejor rendimiento cuando esté disponible.
- Google puede proporcionar una API coherente en todas las versiones y actualizaciones de Android. Las actualizaciones periódicas de las API provienen directamente de Google y existen independientemente de las actualizaciones del sistema operativo.
Imagen: Google
Para que esto suceda, Google está haciendo algunas cosas. Primero, dijo que TensorFlow Lite para Android se preinstalará en todos los dispositivos Android a través de Google Play Services, por lo que los desarrolladores ya no necesitarán incluirlo con sus propias aplicaciones. Google también está agregando una lista integrada de GPU compatibles en Android que se pueden usar para la aceleración de hardware. El gigante de las búsquedas también está introduciendo una “aceleración automática” que requiere el aprendizaje automático del desarrollador. modelo en cuenta y puede comprobar si el modelo funciona mejor acelerado en la CPU, GPU u otros aceleradores.
Imagen: Google
A continuación, Google también dijo que alejará NNAPI del marco central del sistema operativo para que pueda actualizarse a través de los servicios de Google Play. Eso significa que los desarrolladores pueden usar la misma especificación NNAPI incluso si dos dispositivos ejecutan versiones diferentes de Android. Notablemente, el Tiempo de ejecución de NNAPI fue agregado como un módulo de línea principal en Android 11, que posiblemente sea la forma en que se entregan estas actualizaciones. Google está trabajando con Qualcomm para que los controladores NNAPI actualizables estén disponibles en dispositivos con Android 12, y las nuevas funciones serán compatibles durante la vida útil comercial de un conjunto de chips. Además, actualizaciones será entregado regularmente y también será compatible con procesadores Snapdragon más antiguos.
Las mejoras en el aprendizaje automático son sólo una pequeña fracción de lo que Google anunció esta semana. El gigante de las búsquedas presentó un importante rediseño en androide 12 y también compartió los primeros detalles sobre su colaboración con Samsung para sistema operativo Wear renovado.
\r\n https://www.youtube.com/watch? v=uTCQ8rAdPGE\r\n