Praktisk med Googles visuelle søgning til Android

Eksklusiv hands-on med Googles nye visuelle søgefunktion til Google-appen i Android. Kan dette være Google Lens-produktet fra I/O?

Med så meget information derude i verden, er internetsøgemaskiner afgørende for at tilegne sig viden. Tilgængelig via webbrowseren på din stationære eller bærbare pc, en dedikeret app på din smartphone eller tablet eller via din stemme på et smartwatch eller en hjemmeassistent - du har så mange muligheder for at finde den information, du leder efter. Langt de fleste websøgninger udføres stadig via tekstforespørgsler, selvom fremkomsten af Google Goggles var en lovende start på at bringe visuel søgning til masserne. Desværre er Goggles faldet af vejen på grund af manglende opdateringer, men den seneste meddelelse af Google Lens ved I/O ser ud til at genoplive konceptet. Vi var i stand til at komme i gang med Google App's nye visuelle søgefunktion, selvom vi ikke kan bekræfte, om dette er den samme funktion som Google Lens.


Googles visuelle søgning

Fra det lidt, vi ved om, hvordan Google Lens faktisk fungerer, ser det ud til at være Google Goggles på steroider. Googles billedgenkendelse er allerede utrolig kraftfuld, men takket være Googles voksende AI-evne Google Lens vil ikke kun være i stand til at identificere alle forskellige slags objekter, men det vil også være i stand til at give kontekstuelle resultater. Lens vil være i stand til at kommunikere med andre Google-tjenester for at give mere personlig feedback.

I teorien i hvert fald. Udover en hurtig demonstration på Google I/O, der viser WiFi-netværkstilslutning, er der en masse detaljer om Google Lens, som vi ikke kender til. Men i det mindste kan vi tage et kig på, hvordan dens grænseflade kan se ud i Google-appen.

Bemærk venligst, at følgende skærmbilleder muligvis ikke er repræsentative for det endelige Google Visual Search-produkt. Funktionen er tydeligt markeret som "BETA", så vores problemer med tjenesten (detaljeret nedenfor) kan være løst ved den endelige udgivelse. Ydermere betyder det, at grænsefladen kan blive ændret.

Som du kan se, består grænsefladen af ​​en stor kamerasøger i den øverste halvdel af skærmen sammen med en liste over kategorier i bunden. Billedgenkendelseskategorierne består af:

  • Alle
  • Tøj
  • Sko
  • Håndtasker
  • Solbriller
  • Stregkoder
  • Produkter
  • Steder
  • Katte
  • Hunde
  • Blomster

Når du vælger en kategori, formoder vi, at Visual Search indsnævrer sin database for at fuldføre forespørgslen meget hurtigere. Under alle omstændigheder, når du har valgt en kategori (eller holder dig til "alle"), skal du blot trykke et vilkårligt sted i kameraets søger for at begynde at søge. Hvis det omkringliggende område er for mørkt, kan du aktivere kamerablitzen ved at trykke på blitzikonet i øverste venstre hjørne.

Udførelse af en søgning vil få vist en kortvisningsliste med resultater. Du kan stryge til venstre og højre for at se alle resultaterne. Hvis du trykker på et resultat, åbnes en Google-søgeside relateret til det pågældende objekt eller produkt, selvom du nemt kan vælg at gå gennem søgesiden på et andet resultat ved at rulle gennem minikortvisningen oven på søgningen side. Åbning af menuen med tre prikker på ethvert visuelt søgeresultat bringer også muligheden for direkte adgang til billedkilden op, ligesom Googles billedsøgning på skrivebordet.

Vi testede visuel søgning på både statiske billeder hentet fra nettet såvel som levende billeder. Som du ville forvente, fungerer visuel søgning beundringsværdigt på statiske billeder, men vi var ikke i stand til at få denne betaversion til at fungere med levende billeder. Jeg forsøgte at få den til at genkende en DualShock 4 trådløs controller til PlayStation 4 såvel som mit eget Google Home, men i ingen af ​​tilfældene var den i stand til at genkende den. I betragtning af, at dette er en beta-testversion, som vi får fingrene i, kan vi ikke sige, at dette er en fejl ved produktet. Jeg ville ærlig talt være chokeret, hvis liveversionen af ​​Visual Search ikke ville være i stand til at genkende noget i retning af et Google Home (selvom en del af mig håber, at det sjovt nok ville forveksle det som et luftrum opfrisker).


Er visuel søgning det samme som Google Lens?

Ingen af ​​de søgninger, vi udførte, viste nogen tegn på den intelligens, som Google Lens demonstrerede på scenen ved Google I/O. Flere strenge i den seneste Google App APK-fil viser dog en forbindelse mellem de to. I layoutfilen search_widget.xml er en linje, der nævner, at Google-søgewidgetten kan tilføje en knap for at starte visuel søgning. Men det, der er mest interessant, er det faktum, at trækbaren, der visuelt identificerer denne funktion for brugeren, hedder "google_lens."

<ImageButtonandroid: orientation="horizontal"android:android: background="@drawable/search_box_click_on_transparent"android: paddingLeft="8.0dip"android: paddingTop="8.0dip"android: paddingBottom="8.0dip"android: visibility="gone"android: layout_width="56.0dip"android: layout_height="fill_parent"android: src="@drawable/google_lens"android: scaleType="centerInside"android: contentDescription="@string/accessibility_visual_search_button"android: layoutDirection="locale" />

Dette ikon, vist ovenfor, er nøjagtig det samme logo, som blev vist under Google Lens-meddelelsen på Google I/O.

Derudover dukker det samme ikon op i en anden fil, kaldet navigation_menu.xml. Denne fil definerer, hvilke elementer der vises i sidebjælkemenuen i Google-appen. Navnet på denne nye funktion vil hedde Visual Search, men dens ikon er fra Lens.

<com.google.android.apps.gsa.shared.ui.drawer.DrawerEntryandroid:android: tag="ve=37333;track: click"android: visibility="gone"android: layout_width="fill_parent"android: layout_height="wrap_content"thegoogle: imageSrc="@drawable/quantum_ic_google_lens_grey600_24"thegoogle: text="@string/visual_search" />

Det er således ikke for svært at sætte to-og-to sammen. Det er meget sandsynligt, at Googles visuelle søgning i virkeligheden er Google Lens, selvom det, der gør mig lidt tøvende, er det faktum, at dette tilgås fra Google-appen snarere end i Google Assistant, hvilket er, hvad der blev lovet på Google I/O. Plus, da jeg ikke var i stand til at få nogen af ​​de smarte funktioner til at fungere (og grænsefladen lignede ikke den, der vises på Google I/O), kan jeg ikke endegyldigt påstå, at det, jeg legede med, er Google Linse.

Alligevel er vi spændte på at se, hvor godt Google Lens fungerer i praksis, især i betragtning af den ret skuffende indsats fra Samsungs Bixby Vision. Googles I/O-demonstration var pæn, men jeg ville personligt vente, indtil vi selv kan prøve det.


Hvad synes du om Google Lens? Fortæl os dine tanker i kommentarerne nedenfor!