Google desacopla las API en el dispositivo de ML Kit de Firebase

Google separó las API de aprendizaje automático en el dispositivo en ML Kit de Firebase y anunció un nuevo programa de acceso anticipado para probar las próximas API.

Google utiliza ampliamente la inteligencia artificial para ofrecer resultados de búsqueda de imágenes y web altamente contextuales y precisos. Además de la búsqueda en la plataforma web, los modelos de aprendizaje automático de Google también ofrecen una variedad de aplicaciones de inteligencia artificial en teléfonos Android que van desde la búsqueda visual en Lente de Google a fotografía computacional por el que los dispositivos Pixel son famosos. Además de sus propias aplicaciones, Google también permite a los desarrolladores externos integrar funciones de aprendizaje automático en sus aplicaciones sin problemas con la ayuda de ML Kit, un SDK (Software Development Kit) que forma parte de Firebase, su panel de análisis y gestión en línea para dispositivos móviles desarrollo. A partir de hoy, Google anuncia un cambio importante en ML Kit y hará que las API en el dispositivo sean independientes de Firebase.

ML Kit se anunció en Google I/O 2018 para simplificar la adición de funciones de aprendizaje automático a las aplicaciones. En el momento de su lanzamiento, ML Kit constaba de API de reconocimiento de texto, detección de rostros, escaneo de códigos de barras, etiquetado de imágenes y reconocimiento de puntos de referencia. En En abril de 2019, Google presentó sus primeras API de procesamiento de lenguaje natural (NLP) en el SDK para desarrolladores en forma de respuesta inteligente y lenguaje. Identificación. Un mes después, es decir, en Google I/O 2019, Google presentó tres nuevas API de ML para traducción en el dispositivo, detección y seguimiento de objetos, y la API de borde de AutoML Vision para identificar objetos específicos como tipos de flores o alimentos mediante la búsqueda visual.

ML Kit comprende API tanto en el dispositivo como basadas en la nube. Como era de esperar, las API del dispositivo procesan datos utilizando los modelos de aprendizaje automático guardados en el dispositivo. mientras que las API basadas en la nube envían datos a modelos de aprendizaje automático alojados en la plataforma en la nube de Google y reciben los datos resueltos a través de Internet. conexión. Dado que las API en el dispositivo se ejecutan sin Internet, pueden analizar información más rápidamente y son más seguras que sus contrapartes basadas en la nube. Las API de aprendizaje automático en el dispositivo también se pueden acelerar por hardware en dispositivos Android que ejecutan Android Oreo 8.1 y superior. y ejecutar la API de redes neuronales (NNAPI) de Google junto con bloques de cómputo especiales o NPU que se encuentran en los últimos conjuntos de chips de Qualcomm, MediaTek, HiSilicon, etc.

Google publicó recientemente un entrada en el blog anunciando que las API en el dispositivo de ML Kit ahora estarán disponibles como parte de un SDK independiente. Esto significa API en el dispositivo en ML Kit, incluido el reconocimiento de texto, el escaneo de códigos de barras, la detección de rostros, el etiquetado de imágenes, la detección de objetos y seguimiento, identificación de idioma, respuesta inteligente y traducción en el dispositivo: estarán disponibles en un SDK separado al que se puede acceder sin Base de fuego. Google, sin embargo, recomienda utilizar el SDK del kit de aprendizaje automático en Firebase para migrar sus proyectos existentes al nuevo SDK independiente. un nuevo micrositio se ha lanzado con todos los recursos relacionados con ML Kit.

Además del nuevo SDK, Google ha anunciado algunos cambios que facilitan a los desarrolladores la integración de modelos de aprendizaje automático en sus aplicaciones. En primer lugar, el modelo de contorno/detección de rostros ahora se entrega como parte de los servicios de Google Play para que los desarrolladores no tengan que clonar la API y el modelo por separado para sus aplicaciones. Esto permite un tamaño más pequeño para el paquete de la aplicación y la capacidad de reutilizar el modelo dentro de otras aplicaciones de manera más fluida.

En segundo lugar, Google ha añadido Ciclo de vida de Android Jetpack soporte para todas las API. Esto ayudará a administrar el uso de las API cuando una aplicación rota la pantalla o el usuario la cierra. Además, también facilita la fácil integración de la Biblioteca CameraX Jetpack en aplicaciones que usan ML Kit.

En tercer lugar, Google ha anunciado una programa de acceso temprano para que los desarrolladores puedan acceder a las próximas API y funciones antes que el resto. La compañía ahora está agregando dos nuevas API en ML Kit para que desarrolladores seleccionados puedan obtener una vista previa de ellas y compartir sus comentarios. Estas API incluyen:

  • Extracción de entidades para detectar cosas como números de teléfono, direcciones, números de pago, números de seguimiento y fecha y hora en texto, y
  • Detección de pose para la detección de baja latencia de 33 puntos esqueléticos, incluidas manos y pies

Por último, Google ahora permite a los desarrolladores reemplazar las API existentes de etiquetado de imágenes, así como de detección y seguimiento de objetos de ML Kit con modelos personalizados de aprendizaje automático de TensorFlow Lite. La compañía pronto anunciará más detalles sobre cómo encontrar o clonar modelos de TensorFlow Lite y entrenarlos utilizando ML Kit o las nuevas funciones de integración ML de Android Studio.