O kit de ML do Google é um novo SDK do Firebase que elimina a dor de cabeça do aprendizado de máquina

Interessado em aprendizado de máquina, mas não tem muita experiência? O novo ML Kit SDK do Google facilita a incorporação do aprendizado de máquina em seu aplicativo Android ou iOS.

O aprendizado de máquina e a inteligência artificial entraram rapidamente em nosso léxico nos últimos anos, mas poucos entendem verdadeiramente como a tecnologia funciona ou do que é capaz. Até os próprios pesquisadores de IA do Google piada que o aprendizado de máquina é semelhante à alquimia. Como um desenvolvedor ocupado, você pode não ter tempo para aprender sobre aprendizado de máquina (ML), mas o Google não quer que isso o impeça de colher seus benefícios. Por esse motivo, a empresa anunciou hoje Kit de aprendizado de máquina: um novo SDK que incorpora anos de trabalho do Google em aprendizado de máquina em um pacote Firebase que os desenvolvedores de aplicativos móveis usam iOS e Android podem usar para aprimorar seus aplicativos.

Se você não sei nada sobre aprendizado de máquina, então não se preocupe:

Você não precisa de nenhum conhecimento prévio de ML. Você provavelmente está familiarizado com algumas aplicações reais da tecnologia, como detecção de rosto e reconhecimento de imagem. O kit de ML do Google deseja que seu aplicativo se beneficie dos usos de ML no mundo real, sem que você precise entender como o algoritmo funciona. E se você entende de ML ou está disposto a aprender, você também pode aproveitar as vantagens do ML Kit.


Aprendizado de máquina para iniciantes com kit de ML

O novo SDK do Firebase para ML do Google oferece cinco APIs para alguns dos casos de uso mais comuns em dispositivos móveis:

  • Reconhecimento de texto
  • Detecção de rosto
  • Leitura de código de barras
  • Rotulagem de imagens
  • Reconhecimento de marco

Tudo o que você precisa fazer é passar os dados para a API e o SDK retornará uma resposta. É simples assim. Alguns exemplos de uso de ML incluem aplicativos musicais que interpretam quais notas você toca e aplicam cancelamento de eco/ruído à sua música. Outro exemplo poderia ser o reconhecimento óptico de caracteres (OCR) para rótulos nutricionais de aplicativos de contagem de calorias.

A lista de APIs básicas disponíveis será expandida nos próximos meses para incluir uma API de resposta inteligente, assim como AndroidP e uma adição de contorno facial de alta densidade à API de detecção facial.


Kit de ML para usuários experientes

Se você tiver um pouco de conhecimento prévio, também poderá implantar seu próprio TensorFlow Lite modelos. Tudo o que você precisa fazer é enviar seu modelo para o console do Firebase para não precisar se preocupar em agrupá-lo em seu APK (reduzindo assim o tamanho do arquivo). O ML Kit atende seu modelo dinamicamente para que você possa atualizá-los sem republicar seu aplicativo.

Melhor ainda é que o Google compactará automaticamente modelos completos do TensorFlow em um TensorFlow Lite modelo, que reduz o tamanho do arquivo e garante que mais pessoas com conexões de dados limitadas possam aproveitar seu aplicativo.


APIs no dispositivo e na nuvem

O ML Kit oferece APIs no dispositivo e na nuvem. A API no dispositivo processa dados sem conexão de rede (como Recurso de seleção de texto do Android Oreo), enquanto as APIs do Cloud usam o Google Cloud Platform para processar dados para maior precisão.

O ML Kit funciona tanto no Android quanto no iOS e, no Android, em particular, funciona com dispositivos que executam versões do Android tão antigas quanto o Ice Cream Sandwich. Se o usuário estiver executando Android 8.1 Oreo e acima, o ML Kit oferecerá melhor desempenho graças à API de Redes Neurais que já está presente. Em dispositivos com chipsets que possuem hardware especializado, como o Qualcomm Snapdragon 845 (e seu Hexágono DSP) ou o HiSilicon Kirin 970 (e sua Unidade de Processamento Neural), o processamento no dispositivo será acelerado. O Google diz que também está trabalhando com fornecedores de SoC para melhorar o reconhecimento no dispositivo.


Conclusão

Os desenvolvedores que desejam começar devem procurar o novo SDK no Console do Firebase. Você pode deixar comentários no Grupo do Google para Firebase.

Os desenvolvedores com experiência em ML que desejam experimentar o algoritmo do Google para compactar modelos do TensorFlow podem assine aqui. Por fim, confira o Configuração remota do Firebase se você quiser experimentar vários modelos personalizados; ele permite alternar valores de modelo dinamicamente, criar segmentos populacionais e experimentar vários modelos em paralelo.