O Google está tornando o aprendizado de máquina mais rápido e consistente no Android

No Google I/O 2021, o Google falou sobre como está tornando o aprendizado de máquina mais rápido e consistente para desenvolvedores em dispositivos Android.

Após a apresentação principal de ontem em E/S do Google 2021, a empresa realizou diversas sessões que agora estão disponíveis sob demanda via YouTube. Uma das sessões abordou o que há de novo em aprendizado de máquina para Android e como o Google está tornando-o mais rápido e consistente para os desenvolvedores.

O aprendizado de máquina é responsável por potencializar os recursos que os proprietários de Android usam todos os dias, desde desfoque de fundo em imagens, substituição de fundo em aplicativos de videochamada e legendagem ao vivo em chamadas em smartphones Pixel. Embora o aprendizado de máquina esteja se tornando cada vez mais avançado, o Google disse que ainda existem vários desafios na implantação de recursos baseados em ML, incluindo preocupações com o inchaço dos aplicativos e a variação de desempenho. Também há problemas com a disponibilidade de recursos porque nem todos os dispositivos têm acesso às mesmas APIs ou versões de API.

Imagem: Google

Para resolver isso, o Google está anunciando a pilha de inferência de ML totalmente integrada e atualizável do Android, para que haja um conjunto de componentes comuns em todos os dispositivos que funcionam juntos. Isso traz os seguintes benefícios para desenvolvedores de aplicativos:

  • Os desenvolvedores não precisam mais agrupar código para inferência no dispositivo em seus próprios aplicativos.
  • As APIs de aprendizado de máquina são mais integradas ao Android para oferecer melhor desempenho quando disponível.
  • O Google pode fornecer uma API consistente em todas as versões e atualizações do Android. As atualizações regulares das APIs vêm diretamente do Google e existem independentemente das atualizações do sistema operacional.

Imagem: Google

Para que isso aconteça, o Google está fazendo algumas coisas. Primeiro, disse que TensorFlow Lite para Android será pré-instalado em todos os dispositivos Android por meio do Google Play Services, para que os desenvolvedores não precisem mais agrupá-lo com seus próprios aplicativos. O Google também está adicionando uma lista de permissões integrada de GPUs compatíveis no Android que podem ser usadas para aceleração de hardware. O gigante das buscas também está introduzindo a “aceleração automática” que leva o aprendizado de máquina do desenvolvedor modelo em consideração e pode verificar se o modelo funciona melhor acelerado na CPU, GPU ou outro aceleradores.

Imagem: Google

Em seguida, o Google também disse que está afastando o NNAPI da estrutura principal do sistema operacional para que possa ser atualizado por meio do Google Play Services. Isso significa que os desenvolvedores podem usar a mesma especificação NNAPI mesmo se dois dispositivos estiverem executando versões diferentes do Android. Notavelmente, o Tempo de execução da NNAPI foi adicionado como um Módulo de linha principal no Android 11, que é possivelmente a forma como essas atualizações estão sendo entregues. O Google está trabalhando com a Qualcomm para disponibilizar drivers NNAPI atualizáveis ​​em dispositivos que executam Android 12, e novos recursos serão portados durante a vida útil comercial de um chipset. Além disso, atualizações será entregue regularmente e também será compatível com versões anteriores de processadores Snapdragon mais antigos.

As melhorias no aprendizado de máquina são apenas uma pequena fração do que o Google anunciou esta semana. O gigante das buscas revelou uma grande reformulação em Andróide 12 e também compartilhou os primeiros detalhes sobre sua colaboração com a Samsung para Wear OS renovado.

\r\n https://www.youtube.com/watch? v=uTCQ8rAdPGE\r\n