Outra olhada no novo Assistente e Motion Sense no Google Pixel 4

Encontramos demonstrações em vídeo mostrando o novo Google Assistant em ação, bem como os gestos do Motion Sense no Google Pixel 4.

É quase cômico o quanto os smartphones Pixel do final de 2019 vazaram no último mês. Provavelmente sabemos quase tudo sobre o Pixel 4 e o Pixel 4 XL, exceto o preço e a disponibilidade neste momento. Hoje cedo, continuamos a onda de vazamentos quando revelamos pela primeira vez o aplicativo Pixel Tips atualizado. A partir desse vazamento, aprendemos sobre as novas “Sessões Pro” para suporte agendado ao cliente por meio do aplicativo Google One e também sobre um novo recurso de compartilhamento social no novo aplicativo Google Camera. Agora, analisamos mais detalhadamente o APK atualizado e conseguimos desbloquear arquivos de vídeo que mostram a nova experiência do Google Assistant, os gestos do Motion Sense e o desbloqueio facial para pagamentos.

Novo Google Assistente

No Google I/O deste ano, o Google exibiu uma versão muito mais rápida do aplicativo Google Assistant

isso está chegando ao Google Pixel 4. O Google conseguiu reduzir 100 GB de modelos de redes neurais de reconhecimento de fala e compreensão de linguagem para menos de 0,5 GB. O novo Assistente processa a fala “com latência quase zero”, com “transcrição que acontece em tempo real” e funciona “mesmo quando você não tenho conexão de rede." No geral, o Google afirma que o Assistente de última geração pode processar sua consulta e fornecer uma resposta até 10 vezes mais rápido do que antes e com suporte para conversação contínua, você pode continuar disparando consultas sem precisar acionar manualmente o Assistente novamente. Melhor ainda é o fato de que o novo Assistente se integra a outros aplicativos do seu telefone, como Google Agenda, Gmail, Google Maps, YouTube ou Google Fotos.

Ontem, 9to5Google vídeos de marketing compartilhados que mostram o novo Google Assistente, mas também conseguimos vídeos que mostram a nova interface e recursos. Esses vídeos, novamente, vêm do aplicativo Pixel Tips e, portanto, são demonstrações que são reproduzidas quando o usuário busca ajuda para entender os recursos do Google Pixel 4. Incorporei uma lista de reprodução no YouTube com os cinco vídeos que encontrei para o novo Assistente. Aqui está um resumo de cada um:

  1. Mostra a nova IU do Assistente. A nova IU consiste em uma sobreposição colorida sobre o local onde a barra de navegação costumava estar nas versões mais antigas do Android. O texto reconhecido é mostrado flutuando acima da área inferior, embora o fundo esteja desfocado ao redor do texto para que você possa ver facilmente o que o Assistente está reconhecendo.
  2. O segundo vídeo começa com um usuário pedindo ao Google Assistente para procurar ovos próximos no Google Maps. O Google Maps então abre com “ovos próximos” pré-preenchidos e inseridos na caixa de pesquisa. O usuário então aciona o Google Assistente novamente para pedir que ele mostre receitas de ovos cozidos no YouTube.
  3. Este terceiro vídeo mostra a conversa contínua no Assistente no Google Pixel 4. Como é o caso dos dispositivos Google Home e Nest Hub, o Assistente no Pixel 4 pode continuar ouvindo as consultas depois de terminar de responder à sua última consulta.
  4. O quarto vídeo começa com um usuário lendo uma mensagem de texto no aplicativo Mensagens. O usuário então decide pesquisar no Google Fotos as fotos de sua viagem à praia no verão passado, que abre o aplicativo Fotos e procura fotos que contenham uma praia. O usuário então aciona o Assistente mais uma vez e pede para mostrar suas fotos de salto, o que filtra os resultados da pesquisa em Fotos para mostrar apenas fotos contendo uma praia e o usuário pulando. Por fim, o usuário toca em uma das fotos e pede ao Assistente para compartilhá-la com o amigo.
  5. O último vídeo desta playlist começa com o usuário recebendo uma mensagem de texto de um amigo. Em vez de tocar na notificação e enviar uma resposta manualmente, o usuário pede que o Google Assistente responda.

Gestos de detecção de movimento

Já sabemos muito sobre como o Google está usando o Radar do Projeto Soli no Google Pixel 4. O Google fez gestos que eles chamam de Motion Sense e, através de nossas pesquisas, descobrimos que o Google planeja apoiar 52 regiões e 23 aplicativos de mídia diferentes. Também vimos o telas de configurações para esses gestos, revelando que você poderá fazer o seguinte:

  • Pule faixas de música acenando com a mão para a esquerda ou para a direita no telefone.
  • Silencie chamadas e alarmes passando a mão sobre o telefone.
  • Verifique suas notificações aproximando a mão do telefone.

Até ontem, porém, não tínhamos nenhum vídeo mostrando como é realizar esses gestos. Caso você esteja se perguntando, aqui está um vídeo que encontramos que mostra a aparência dos gestos do Motion Sense em um Google Pixel 4.

Desbloqueio facial para pagamentos

Por último, já sabemos há algum tempo que o Google Pixel 4 possui hardware de reconhecimento facial seguro. Também sabemos que você poderá fazer compras usando o desbloqueio facial. Aqui está uma breve demonstração mostrando como é comprar na Google Play Store usando seu rosto.


Se você quiser uma visão geral dos outros recursos que o Google exibirá nos novos Pixels 2019, recomendo que você leia meu artigo anterior sobre o aplicativo Pixel Tips. O Google Pixel 4 e Pixel 4 XL serão revelados em apenas 12 dias. Não deve haver muitos mistérios para descobrir, mas se encontrarmos algo novo, avisaremos você.

Fóruns do Google Pixel 4 ||| Fóruns do Google Pixel 4 XL

Obrigado à PNF Software por nos fornecer uma licença para usar Descompilador JEB, uma ferramenta de engenharia reversa de nível profissional para aplicativos Android.