O Google separa as APIs no dispositivo do ML Kit do Firebase

O Google separou APIs de aprendizado de máquina no dispositivo no ML Kit do Firebase e anunciou um novo programa de acesso antecipado para testar as próximas APIs.

O Google usa extensivamente inteligência artificial para fornecer resultados de pesquisa de imagens e web altamente contextuais e precisos. Além da plataforma de pesquisa na web, os modelos de aprendizado de máquina do Google também fornecem uma variedade de aplicativos de IA em telefones Android, desde a pesquisa visual em Lente do Google para fotografia computacional pelos quais os dispositivos Pixel são famosos. Além de seus próprios aplicativos, o Google também permite que desenvolvedores terceirizados integrem recursos de aprendizado de máquina em seus aplicativos de maneira integrada com a ajuda do ML Kit, um SDK (Software Development Kit) que faz parte do Firebase – seu painel de gerenciamento e análise online para dispositivos móveis desenvolvimento. A partir de hoje, o Google está anunciando uma grande mudança no Kit de ML e tornará as APIs no dispositivo independentes do Firebase.

Kit de ML foi anunciado no Google I/O 2018 para simplificar a adição de recursos de aprendizado de máquina aos aplicativos. No momento de seu lançamento, o kit de ML consistia em APIs de reconhecimento de texto, detecção de rosto, leitura de código de barras, rotulagem de imagens e reconhecimento de pontos de referência. Em Em abril de 2019, o Google introduziu suas primeiras APIs de processamento de linguagem natural (PNL) no SDK para desenvolvedores na forma de resposta inteligente e linguagem Identificação. Um mês depois, ou seja, no Google I/O 2019, O Google introduziu três novas APIs de ML para tradução no dispositivo, detecção e rastreamento de objetos e o API AutoML Vision Edge para identificar objetos específicos, como tipos de flores ou alimentos, usando pesquisa visual.

O kit de ML inclui APIs no dispositivo e baseadas na nuvem. Como seria de esperar, as APIs no dispositivo processam dados usando os modelos de aprendizado de máquina salvos no dispositivo enquanto as APIs baseadas em nuvem enviam dados para modelos de aprendizado de máquina hospedados na Cloud Platform do Google e recebem os dados resolvidos pela Internet conexão. Como as APIs no dispositivo são executadas sem Internet, elas podem analisar informações mais rapidamente e são mais seguras do que suas contrapartes baseadas na nuvem. As APIs de aprendizado de máquina no dispositivo também podem ser aceleradas por hardware em dispositivos Android que executam o Android Oreo 8.1 e superior e executado na API de redes neurais do Google (NNAPI), juntamente com blocos de computação especiais ou NPUs encontrados nos chipsets mais recentes de Qualcomm, MediaTek, HiSilicon, etc.

O Google postou recentemente um postagem no blog anunciando que as APIs do ML Kit no dispositivo agora estarão disponíveis como parte de um SDK independente. Isso significa APIs no dispositivo no ML Kit – incluindo reconhecimento de texto, leitura de código de barras, detecção de rosto, rotulagem de imagens, detecção de objetos e rastreamento, identificação de idioma, resposta inteligente e tradução no dispositivo – estarão disponíveis em um SDK separado que pode ser acessado sem Base de fogo. O Google, no entanto, recomenda o uso do ML Kit SDK no Firebase para migrar seus projetos existentes para o novo SDK independente. Um novo microsite foi lançado com todos os recursos relacionados ao ML Kit.

Além do novo SDK, o Google anunciou algumas mudanças que tornam mais fácil para os desenvolvedores integrarem modelos de aprendizado de máquina em seus aplicativos. Em primeiro lugar, o modelo de detecção/contorno facial agora é fornecido como parte do Google Play Services para que os desenvolvedores não precisem clonar a API e o modelo separadamente para seus aplicativos. Isso permite um tamanho menor para o pacote de aplicativos e a capacidade de reutilizar o modelo em outros aplicativos de maneira mais integrada.

Em segundo lugar, o Google adicionou Ciclo de vida do Android Jetpack suporte a todas as APIs. Isso ajudará no gerenciamento do uso das APIs quando um aplicativo sofre rotação de tela ou é fechado pelo usuário. Além disso, também facilita a fácil integração do Biblioteca CameraX Jetpack em aplicativos que usam o ML Kit.

Em terceiro lugar, o Google anunciou um programa de acesso antecipado para que os desenvolvedores possam obter acesso às próximas APIs e recursos antes do resto. A empresa agora está adicionando duas novas APIs no ML Kit para que desenvolvedores selecionados possam visualizá-las e compartilhar seus comentários. Essas APIs incluem:

  • Extração de Entidade para detectar itens como números de telefone, endereços, números de pagamento, números de rastreamento e data e hora em texto, e
  • Detecção de pose para detecção de baixa latência de 33 pontos do esqueleto, incluindo mãos e pés

Por último, o Google agora está permitindo que os desenvolvedores substituam as APIs existentes de rotulagem de imagens, bem como de detecção e rastreamento de objetos do ML Kit por modelos personalizados de aprendizado de máquina de TensorFlow Lite. A empresa anunciará em breve mais detalhes sobre como encontrar ou clonar modelos do TensorFlow Lite e treiná-los usando o ML Kit ou os novos recursos de integração de ML do Android Studio.