Prática exclusiva com o novo recurso de pesquisa visual do Google para o Google App no Android. Este poderia ser o produto Google Lens da I/O?
Com tanta informação disponível no mundo, os motores de busca na Internet são cruciais para a aquisição de conhecimento. Acessível através do navegador da web em seu desktop ou laptop, um aplicativo dedicado em seu smartphone ou tablet ou através de seu voz em um smartwatch ou dispositivo de assistente doméstico - você tem muitas opções disponíveis para encontrar as informações que procura. A grande maioria das pesquisas na web ainda é realizada por meio de consultas de texto, embora o advento do Óculos do Google foi um começo promissor para levar a pesquisa visual às massas. Infelizmente, o Goggles ficou no esquecimento devido à falta de atualizações, mas o recente anúncio de Lente do Google na I/O parece estar revivendo o conceito. Conseguimos experimentar o novo recurso de pesquisa visual do Google App, embora não possamos confirmar se esse é o mesmo recurso do Google Lens.
Pesquisa visual do Google
Pelo pouco que sabemos sobre como o Google Lens realmente funciona, parece ser o Google Goggles com esteróides. O reconhecimento de imagem do Google já é incrivelmente poderoso, mas graças à crescente capacidade de IA do Google, o Google Lens não só será capaz de identificar todos os diferentes tipos de objetos, mas também será capaz de fornecer informações contextuais resultados. O Lens poderá interagir com outros serviços do Google para fornecer feedback mais personalizado.
Em teoria, de qualquer maneira. Além de uma rápida demonstração no Google I/O mostrando a conexão da rede WiFi, há muitos detalhes específicos sobre o Google Lens que não conhecemos. Mas, pelo menos, podemos dar uma olhada em como será sua interface no Google App.
Observe que as capturas de tela a seguir podem não representar o produto final do Google Visual Search. O recurso está claramente marcado como "BETA", portanto nossos problemas com o serviço (detalhados abaixo) poderão ser resolvidos até o lançamento final. Além disso, isso significa que a interface pode estar sujeita a alterações.
Como você pode ver, a interface consiste em um grande visor de câmera na metade superior da tela junto com uma lista de categorias na parte inferior. As categorias de reconhecimento de imagem consistem em:
- Todos
- Roupas
- Sapato
- Bolsas
- Oculos de sol
- Códigos de barra
- Produtos
- Lugares
- Gatos
- Cães
- Flores
Quando você seleciona uma categoria, suspeitamos que o Visual Search restringe seu banco de dados para concluir a consulta muito mais rapidamente. De qualquer forma, depois de selecionar uma categoria (ou ficar com "todas"), para começar a pesquisar, basta tocar em qualquer lugar do visor da câmera. Se a área ao redor estiver muito escura, você pode ativar o flash da câmera tocando no ícone do flash no canto superior esquerdo.
A realização de uma pesquisa exibirá uma lista de resultados de visualização de cartão. Você pode deslizar para a esquerda e para a direita para ver todos os resultados. Tocar em um resultado abrirá uma página de pesquisa do Google relacionada a esse objeto ou produto, embora você possa facilmente opte por passar pela página de pesquisa em outro resultado, percorrendo a visualização do mini cartão na parte superior da pesquisa página. Abrir o menu de três pontos em qualquer resultado de pesquisa visual também traz a capacidade de acessar diretamente a fonte da imagem, assim como a pesquisa de imagens no desktop do Google.
Testamos a Pesquisa Visual em imagens estáticas provenientes da web e também em imagens ao vivo. Como seria de esperar, a pesquisa visual tem um desempenho admirável em imagens estáticas, mas não conseguimos fazer esta versão beta funcionar com imagens ao vivo. Tentei fazer com que ele reconhecesse um controlador sem fio DualShock 4 para o PlayStation 4, bem como meu próprio Google Home, mas em nenhum dos casos foi possível reconhecê-lo. Dado que esta é uma versão de teste beta que temos em mãos, não podemos dizer que isso seja uma falha do produto. Sinceramente, eu ficaria chocado se a versão ao vivo do Visual Search não fosse capaz de reconhecer algo como um Google Home (embora uma parte de mim espere que isso seja hilariamente confundido com um ar ambientador).
A pesquisa visual é igual ao Google Lens?
Nenhuma das pesquisas que realizamos mostrou qualquer sinal da inteligência que o Google Lens demonstrou no palco do Google I/O. No entanto, várias strings no arquivo APK do Google App mais recente mostram uma conexão entre os dois. Dentro do arquivo de layout search_widget.xml há uma linha que menciona que o widget de pesquisa do Google pode adicionar um botão para iniciar a Pesquisa Visual. Mas o mais interessante é o fato de que o drawable que identificará visualmente esse recurso para o usuário se chama “google_lens”.
<ImageButtonandroid: orientation="horizontal"android:android: background="@drawable/search_box_click_on_transparent"android: paddingLeft="8.0dip"android: paddingTop="8.0dip"android: paddingBottom="8.0dip"android: visibility="gone"android: layout_width="56.0dip"android: layout_height="fill_parent"android: src="@drawable/google_lens"android: scaleType="centerInside"android: contentDescription="@string/accessibility_visual_search_button"android: layoutDirection="locale" />
Este ícone, mostrado acima, é exatamente o mesmo logotipo mostrado durante o anúncio do Google Lens no Google I/O.
Além disso, esse mesmo ícone aparece em outro arquivo, chamado navigation_menu.xml. Este arquivo define quais elementos aparecerão no menu da barra lateral do Google app. O nome deste novo recurso será Visual Search, mas seu ícone é do Lens.
<com.google.android.apps.gsa.shared.ui.drawer.DrawerEntryandroid:android: tag="ve=37333;track: click"android: visibility="gone"android: layout_width="fill_parent"android: layout_height="wrap_content"thegoogle: imageSrc="@drawable/quantum_ic_google_lens_grey600_24"thegoogle: text="@string/visual_search" />
Portanto, não é muito difícil somar dois mais dois. Isso é muito provavelmente que a Pesquisa Visual do Google seja na verdade o Google Lens, embora o que me deixa um pouco hesitante seja o fato de que ele é acessado no Google App e não no Google Assistant, como foi prometido no Google I/O. Além disso, como não consegui fazer nenhum dos recursos inteligentes funcionar (e a interface não se parecia com aquele mostrado no Google I/O), não posso afirmar com certeza que o que eu brinquei foi o Google Lente.
Ainda assim, estamos entusiasmados em ver como o Google Lens funciona bem na prática, especialmente devido ao esforço bastante decepcionante por parte do Bixby Vision da Samsung. A demonstração de E/S do Google foi legal, mas eu pessoalmente esperaria até que possamos testá-la por nós mesmos.
O que você acha do Google Lens? Deixe-nos saber seus pensamentos nos comentários abaixo!