Praktisch met Google's Visual Search voor Android

click fraud protection

Exclusief hands-on met de nieuwe visuele zoekfunctie van Google voor de Google-app in Android. Zou dit het Google Lens-product van I/O kunnen zijn?

Omdat er zoveel informatie beschikbaar is in de wereld, zijn internetzoekmachines van cruciaal belang voor het verwerven van kennis. Toegankelijk via de webbrowser op uw desktop of laptop, een speciale app op uw smartphone of tablet, of via uw stem op een smartwatch of thuisassistent-apparaat - er zijn zoveel opties beschikbaar om de informatie te vinden die u zoekt. De overgrote meerderheid van de zoekopdrachten op internet wordt nog steeds uitgevoerd via tekstquery's, ondanks de komst van Google-bril was een veelbelovende start om visueel zoeken naar de massa te brengen. Helaas is Goggles buiten de boot gevallen vanwege een gebrek aan updates, maar de recente aankondiging van Google Lens bij I/O lijkt het concept nieuw leven in te blazen. We hebben de nieuwe visuele zoekfunctie van de Google-app kunnen leren kennen, hoewel we niet kunnen bevestigen of dit dezelfde functie is als Google Lens.


Visueel zoeken van Google

Van het weinige dat we weten over hoe Google Lens eigenlijk werkt, lijkt het Google Goggles op steroïden te zijn. De beeldherkenning van Google is al ongelooflijk krachtig, maar dankzij Google's groeiende AI-vaardigheid Google Lens zal niet alleen in staat zijn om alle verschillende soorten objecten te identificeren, maar zal ook contextueel kunnen bieden resultaten. Lens kan communiceren met andere Google-services om meer gepersonaliseerde feedback te geven.

In theorie toch. Naast een snelle demonstratie op Google I/O waarin WiFi-netwerkverbindingen worden getoond, zijn er veel details over Google Lens die we niet kennen. Maar we kunnen op zijn minst bekijken hoe de interface eruit kan zien in de Google-app.

Houd er rekening mee dat de volgende schermafbeeldingen mogelijk niet representatief zijn voor het uiteindelijke Google Visual Search-product. De functie is duidelijk gemarkeerd als 'BÈTA', dus onze problemen met de service (hieronder beschreven) kunnen bij de definitieve release zijn opgelost. Bovendien betekent dit dat de interface aan verandering onderhevig kan zijn.

Zoals je kunt zien, bestaat de interface uit een grote camerazoeker in de bovenste helft van het scherm, samen met een lijst met categorieën onderaan. De beeldherkenningscategorieën bestaan ​​uit:

  • Alle
  • Kleding
  • Schoenen
  • Handtassen
  • Zonnebril
  • Barcodes
  • Producten
  • Plaatsen
  • Katten
  • Honden
  • Bloemen

Wanneer u een categorie selecteert, vermoeden we dat Visual Search de database verkleint om de zoekopdracht veel sneller te voltooien. Hoe dan ook, als u eenmaal een categorie heeft geselecteerd (of bij 'alles' blijft), tikt u eenvoudig ergens in de zoeker van de camera om te beginnen met zoeken. Als de omgeving te donker is, kunt u de flitser van de camera inschakelen door op het flitspictogram in de linkerbovenhoek te tikken.

Als u een zoekopdracht uitvoert, wordt een kaartweergavelijst met resultaten weergegeven. U kunt naar links en rechts vegen om alle resultaten te bekijken. Als u op een resultaat tikt, wordt een Google-zoekpagina geopend die betrekking heeft op dat object of product, hoewel u dit eenvoudig kunt doen kies ervoor om via de zoekpagina naar een ander resultaat te gaan door door de minikaartweergave bovenaan de zoekopdracht te bladeren bladzijde. Als u bij een visueel zoekresultaat het menu met drie stippen opent, krijgt u ook de mogelijkheid om rechtstreeks toegang te krijgen tot de afbeeldingsbron, net zoals bij het zoeken naar afbeeldingen op desktops van Google.

We hebben Visual Search getest op zowel statische afbeeldingen afkomstig van internet als live afbeeldingen. Zoals je zou verwachten presteert visueel zoeken uitstekend op statische afbeeldingen, maar het lukte ons niet om deze bètaversie werkend te krijgen met live afbeeldingen. Ik probeerde hem een ​​DualShock 4 draadloze controller voor de PlayStation 4 en mijn eigen Google Home te laten herkennen, maar in geen van beide gevallen kon hij hem herkennen. Gezien het feit dat dit een bètatestversie is die we in handen krijgen, kunnen we niet zeggen dat dit een fout van het product is. Ik zou eerlijk gezegd geschokt zijn als de live versie van Visual Search het niet zou herkennen zoiets als een Google Home (hoewel een deel van mij hoopt dat het op hilarische wijze als een air zou worden aangezien verfrisser).


Is Visueel zoeken hetzelfde als Google Lens?

Geen van de door ons uitgevoerde zoekopdrachten vertoonde enig teken van de intelligentie die Google Lens demonstreerde op het podium van Google I/O. Verschillende tekenreeksen in het nieuwste Google App APK-bestand laten echter wel een verband tussen beide zien. In het lay-outbestand search_widget.xml bevindt zich een regel die vermeldt dat de Google-zoekwidget een knop kan toevoegen om Visual Search te starten. Maar wat het meest interessant is, is het feit dat de tekenbare tekst die deze functie visueel voor de gebruiker identificeert, de naam 'google_lens' draagt.

<ImageButtonandroid: orientation="horizontal"android:android: background="@drawable/search_box_click_on_transparent"android: paddingLeft="8.0dip"android: paddingTop="8.0dip"android: paddingBottom="8.0dip"android: visibility="gone"android: layout_width="56.0dip"android: layout_height="fill_parent"android: src="@drawable/google_lens"android: scaleType="centerInside"android: contentDescription="@string/accessibility_visual_search_button"android: layoutDirection="locale" />

Dit pictogram, hierboven weergegeven, is exact hetzelfde logo dat werd getoond tijdens de Google Lens-aankondiging op Google I/O.

Bovendien verschijnt hetzelfde pictogram in een ander bestand, genaamd navigatie_menu.xml. Dit bestand definieert welke elementen worden weergegeven in het zijbalkmenu van de Google-app. De naam van deze nieuwe functie heet Visual Search, maar het pictogram komt van Lens.

<com.google.android.apps.gsa.shared.ui.drawer.DrawerEntryandroid:android: tag="ve=37333;track: click"android: visibility="gone"android: layout_width="fill_parent"android: layout_height="wrap_content"thegoogle: imageSrc="@drawable/quantum_ic_google_lens_grey600_24"thegoogle: text="@string/visual_search" />

Het is dus niet zo moeilijk om twee-en-twee samen te stellen. Zijn het is zeer waarschijnlijk dat de Visual Search van Google in feite Google Lens is, maar wat mij een beetje aarzelend maakt, is het feit dat dit toegankelijk is via de Google-app in plaats van vanuit de Google Assistent, wat werd beloofd bij Google I/O. Bovendien kon ik geen van de slimme functies werkend krijgen (en de interface leek niet op degene die wordt getoond bij Google I/O), kan ik niet definitief beweren dat waarmee ik heb gespeeld Google is Lens.

Toch zijn we benieuwd hoe goed Google Lens in de praktijk werkt, vooral gezien de nogal teleurstellende inspanningen van Samsungs Bixby Vision. De I/O-demonstratie van Google was leuk, maar persoonlijk zou ik wachten tot we het zelf kunnen uitproberen.


Wat vind jij van Google Lens? Laat ons uw mening weten in de reacties hieronder!