No Google I/O 2021, o Google falou sobre como está tornando o aprendizado de máquina mais rápido e consistente para desenvolvedores em dispositivos Android.
Após a apresentação principal de ontem em E/S do Google 2021, a empresa realizou diversas sessões que agora estão disponíveis sob demanda via YouTube. Uma das sessões abordou o que há de novo em aprendizado de máquina para Android e como o Google está tornando-o mais rápido e consistente para os desenvolvedores.
O aprendizado de máquina é responsável por potencializar os recursos que os proprietários de Android usam todos os dias, desde desfoque de fundo em imagens, substituição de fundo em aplicativos de videochamada e legendagem ao vivo em chamadas em smartphones Pixel. Embora o aprendizado de máquina esteja se tornando cada vez mais avançado, o Google disse que ainda existem vários desafios na implantação de recursos baseados em ML, incluindo preocupações com o inchaço dos aplicativos e a variação de desempenho. Também há problemas com a disponibilidade de recursos porque nem todos os dispositivos têm acesso às mesmas APIs ou versões de API.
Imagem: Google
Para resolver isso, o Google está anunciando a pilha de inferência de ML totalmente integrada e atualizável do Android, para que haja um conjunto de componentes comuns em todos os dispositivos que funcionam juntos. Isso traz os seguintes benefícios para desenvolvedores de aplicativos:
- Os desenvolvedores não precisam mais agrupar código para inferência no dispositivo em seus próprios aplicativos.
- As APIs de aprendizado de máquina são mais integradas ao Android para oferecer melhor desempenho quando disponível.
- O Google pode fornecer uma API consistente em todas as versões e atualizações do Android. As atualizações regulares das APIs vêm diretamente do Google e existem independentemente das atualizações do sistema operacional.
Imagem: Google
Para que isso aconteça, o Google está fazendo algumas coisas. Primeiro, disse que TensorFlow Lite para Android será pré-instalado em todos os dispositivos Android por meio do Google Play Services, para que os desenvolvedores não precisem mais agrupá-lo com seus próprios aplicativos. O Google também está adicionando uma lista de permissões integrada de GPUs compatíveis no Android que podem ser usadas para aceleração de hardware. O gigante das buscas também está introduzindo a “aceleração automática” que leva o aprendizado de máquina do desenvolvedor modelo em consideração e pode verificar se o modelo funciona melhor acelerado na CPU, GPU ou outro aceleradores.
Imagem: Google
Em seguida, o Google também disse que está afastando o NNAPI da estrutura principal do sistema operacional para que possa ser atualizado por meio do Google Play Services. Isso significa que os desenvolvedores podem usar a mesma especificação NNAPI mesmo se dois dispositivos estiverem executando versões diferentes do Android. Notavelmente, o Tempo de execução da NNAPI foi adicionado como um Módulo de linha principal no Android 11, que é possivelmente a forma como essas atualizações estão sendo entregues. O Google está trabalhando com a Qualcomm para disponibilizar drivers NNAPI atualizáveis em dispositivos que executam Android 12, e novos recursos serão portados durante a vida útil comercial de um chipset. Além disso, atualizações será entregue regularmente e também será compatível com versões anteriores de processadores Snapdragon mais antigos.
As melhorias no aprendizado de máquina são apenas uma pequena fração do que o Google anunciou esta semana. O gigante das buscas revelou uma grande reformulação em Andróide 12 e também compartilhou os primeiros detalhes sobre sua colaboração com a Samsung para Wear OS renovado.
\r\n https://www.youtube.com/watch? v=uTCQ8rAdPGE\r\n