O Google introduziu duas novas APIs no kit de ML: extração de entidades e segmentação de selfies. Continue lendo para saber mais sobre eles!
Há alguns anos, o Google introduziu o kit de ML para facilitar aos desenvolvedores a implementação de aprendizado de máquina em seus aplicativos. Desde então, vimos APIs para reconhecimento de tinta digital, tradução no dispositivo e detecção de rosto. Agora, o Google está adicionando uma nova extração de entidade ao kit de ML junto com um novo recurso de segmentação de selfie.
Google disse a nova API de extração de entidades permitirá que os desenvolvedores detectem e localizem entidades a partir de texto bruto e tomem medidas com base nessas entidades.
“A API funciona em texto estático e também em tempo real enquanto o usuário digita”, disse o Google. “Ele suporta 11 entidades diferentes e 15 idiomas diferentes (com mais vindo no futuro) para permitir que os desenvolvedores tornem qualquer interação de texto uma experiência mais rica para o usuário.”
Aqui estão as entidades que são suportadas:
- Endereço(350 terceira rua, Cambridge)
- Data hora*(12/12/2020, amanhã às 15h) (nos encontramos amanhã às 18h)
- E-mail(entidade-extraçã[email protected])
- Número do vôo*(LX37)
- IBAN*(CH52 0483 0000 0000 0000 9)
- ISBN*(978-1101904190)
- Dinheiro (incluindo moeda)*($ 12, 25 dólares)
- Cartão de pagamento*(4111 1111 1111 1111)
- Número de telefone((555) 225-3556, 12345)
- Numero de rastreio*(1Z204E380338943508)
- URL(www.google.com, https://en.wikipedia.org/wiki/Platypus, seznam.cz)
O Google disse que está testando a API de extração de entidade com TamTam para permitir que o aplicativo forneça sugestões úteis aos usuários durante conversas de bate-papo. Quando um endereço está na tela, por exemplo, clicar nele abrirá um menu para copiar o endereço, abrir com outro aplicativo ou obter instruções para chegar ao local.
Os anotadores/modelos de rede neural na API de extração de entidade funcionam da seguinte maneira: um determinado texto de entrada é primeiro dividido em palavras (com base na separação de espaço) e, em seguida, todas as possíveis subsequências de palavras de determinado comprimento máximo (15 palavras no exemplo acima) é gerado e, para cada candidato, a rede neural de pontuação atribui um valor (entre 0 e 1) com base no fato de representar uma entidade válida.
Em seguida, são removidas as entidades geradas que se sobrepõem, favorecendo aquelas com maior pontuação em detrimento das conflitantes com menor pontuação. Em seguida, uma segunda rede neural é usada para classificar o tipo de entidade como um número de telefone, um endereço ou, em alguns casos, uma não-entidade.
O Google disse que a API de extração de entidade do ML Kit se baseia na tecnologia que potencializou o recurso Smart Linkify introduzido com o Android 10.
Além da extração de entidades baseada em texto, o Google também anunciou uma nova API de segmentação de selfies. O recurso permitirá que os desenvolvedores separem o plano de fundo de uma cena. Isso permitirá que os usuários adicionem efeitos interessantes às selfies ou até mesmo se insiram em um fundo melhor. O Google disse que a nova API é capaz de produzir ótimos resultados com baixa latência tanto no Android quanto no iOS.
O ML Kit SDK incorpora anos de trabalho do Google em aprendizado de máquina em um pacote Firebase que os desenvolvedores de aplicativos móveis podem usar para aprimorar seus aplicativos. Desde que o ML Kit foi lançado, diversas APIs foram reveladas, o que torna a implementação de recursos baseados em aprendizado de máquina em aplicativos muito mais fácil para os desenvolvedores. Com a extração de entidades e a segmentação de selfies, os aplicativos do futuro ficarão ainda melhores.