Google presenta las API de extracción de entidades y segmentación de selfies en ML Kit

Google ha introducido dos nuevas API en ML Kit: extracción de entidades y segmentación de selfies. ¡Sigue leyendo para saber más sobre ellos!

Hace unos años, Google presentó el kit de aprendizaje automático para facilitar a los desarrolladores la implementación del aprendizaje automático en sus aplicaciones. Desde entonces, hemos visto API para reconocimiento de tinta digital, traducción en el dispositivo y detección de rostros. Ahora, Google está agregando una nueva extracción de entidades al kit ML junto con una nueva función de segmentación de selfies.

Google dijo La nueva API de extracción de entidades permitirá a los desarrolladores detectar y localizar entidades a partir de texto sin formato y tomar medidas en función de esas entidades.

"La API funciona con texto estático y también en tiempo real mientras un usuario escribe", dijo Google. "Admite 11 entidades diferentes y 15 idiomas diferentes (y habrá más en el futuro) para permitir a los desarrolladores hacer de cualquier interacción de texto una experiencia más rica para el usuario".

Estas son las entidades que son compatibles:

  • DIRECCIÓN(350 tercera calle, cambridge)
  • Fecha y hora*(12/12/2020, mañana a las 15 h) (nos vemos mañana a las 18 h)
  • Correo electrónico(entidad-extracció[email protected])
  • Número de vuelo*(LX37)
  • IBAN*(CH52 0483 0000 0000 0000 9)
  • ISBN*(978-1101904190)
  • Dinero (incluida la moneda)*($12, 25USD)
  • Tarjeta de pago*(4111 1111 1111 1111)
  • Número de teléfono((555) 225-3556, 12345)
  • El número de rastreo*(1Z204E380338943508)
  • URL(www.google.com, https://en.wikipedia.org/wiki/Platypus, seznam.cz)

Google dijo que ha estado probando la API Entity Extraction con TamTam para permitir que la aplicación brinde sugerencias útiles a los usuarios durante las conversaciones de chat. Cuando hay una dirección en la pantalla, por ejemplo, al hacer clic en ella aparecerá un menú para copiar la dirección, abrirla con otra aplicación u obtener indicaciones para llegar a la ubicación.

Los anotadores/modelos de redes neuronales en Entity Extraction API funcionan de la siguiente manera: un texto de entrada determinado se divide primero en palabras (según la separación de espacios), luego todas las posibles subsecuencias de palabras de Se genera una longitud máxima determinada (15 palabras en el ejemplo anterior) y, para cada candidato, la red neuronal de puntuación asigna un valor (entre 0 y 1) en función de si representa una entidad válida.

A continuación, se eliminan las entidades generadas que se superponen, favoreciendo las que tienen una puntuación más alta sobre las que están en conflicto con una puntuación más baja. Luego se utiliza una segunda red neuronal para clasificar el tipo de entidad como un número de teléfono, una dirección o, en algunos casos, una no entidad.

Google dijo que la API de extracción de entidades de ML Kit se basa en la tecnología que impulsó la función Smart Linkify introducida con Android 10.

Además de la extracción de entidades basada en texto, Google también anunció una nueva API de segmentación de selfies. La función permitirá a los desarrolladores separar el fondo de una escena. Esto permitirá a los usuarios agregar efectos interesantes a los selfies o incluso insertarse en un mejor fondo. Google dijo que la nueva API es capaz de producir excelentes resultados con baja latencia tanto en Android como en iOS.

El SDK del kit de aprendizaje automático incorpora años de trabajo de Google en aprendizaje automático en un paquete Firebase que los desarrolladores de aplicaciones móviles pueden utilizar para mejorar sus aplicaciones. Desde que se introdujo ML Kit, se han presentado varias API que facilitan mucho a los desarrolladores la implementación de funciones basadas en aprendizaje automático en aplicaciones. Con Entity Extraction y Selfie Segmentation, las aplicaciones del futuro serán aún mejores.