Exklusiv hands-on med Googles nya Visual Search-funktion för Google-appen i Android. Kan detta vara Google Lens-produkten från I/O?
Med så mycket information där ute i världen är sökmotorer på Internet avgörande för att skaffa kunskap. Tillgänglig via webbläsaren på din stationära eller bärbara dator, en dedikerad app på din smartphone eller surfplatta eller via din röst på en smartklocka eller hemassistent - du har så många alternativ tillgängliga för att hitta den information du letar efter. De allra flesta webbsökningar utförs fortfarande via textfrågor, även om tillkomsten av Google Goggles var en lovande start på att föra visuellt sökande till massorna. Tyvärr har Goggles fallit förbi på grund av brist på uppdateringar, men det senaste tillkännagivandet av Google Lens at I/O verkar återuppliva konceptet. Vi kunde komma igång med Google Apps nya Visual Search-funktion, även om vi inte kan bekräfta om detta är samma funktion som Google Lens.
Googles visuella sökning
Från det lilla vi vet om hur Google Lens faktiskt fungerar, verkar det vara Google Goggles på steroider. Googles bildigenkänning är redan otroligt kraftfull, men tack vare Googles växande AI-förmåga Google Lens kommer inte bara att kunna identifiera alla olika typer av objekt utan det kommer också att kunna tillhandahålla kontextuella resultat. Lens kommer att kunna samverka med andra Google-tjänster för att ge mer personlig feedback.
I teorin i alla fall. Förutom en snabb demonstration på Google I/O som visar upp WiFi-nätverksanslutning, finns det många detaljer om Google Lens som vi inte känner till. Men vi kan åtminstone ta en titt på hur dess gränssnitt kan se ut i Google-appen.
Observera att följande skärmdumpar kanske inte är representativa för den slutliga Google Visual Search-produkten. Funktionen är tydligt markerad som "BETA", så våra problem med tjänsten (detaljerat nedan) kan lösas av den slutliga versionen. Dessutom innebär detta att gränssnittet kan komma att ändras.
Som du kan se består gränssnittet av en stor kamerasökare i den övre halvan av skärmen tillsammans med en lista med kategorier längst ner. Bildigenkänningskategorierna består av:
- Allt
- Kläder
- Skor
- Handväskor
- Solglasögon
- Streckkoder
- Produkter
- Platser
- Katter
- Hundar
- Blommor
När du väljer en kategori misstänker vi att Visual Search begränsar sin databas för att slutföra frågan mycket snabbare. I vilket fall som helst, när du väl har valt en kategori (eller håller dig till "alla"), för att börja söka trycker du helt enkelt var som helst i kamerans sökare. Om det omgivande området är för mörkt kan du aktivera kamerablixten genom att trycka på blixtikonen i det övre vänstra hörnet.
Om du gör en sökning får du upp en kortvy med resultat. Du kan svepa åt vänster och höger för att se alla resultat. Om du trycker på ett resultat öppnas en Google-söksida relaterad till det objektet eller produkten, men du kan enkelt välj att gå igenom söksidan på ett annat resultat genom att bläddra igenom minikortvyn ovanpå sökningen sida. Att öppna menyn med tre punkter på valfritt visuellt sökresultat ger också möjligheten att direkt komma åt bildkällan, ungefär som Googles bildsökning på skrivbordet.
Vi testade Visual Search på både statiska bilder hämtade från webben såväl som levande bilder. Som du kan förvänta dig fungerar visuell sökning beundransvärt på statiska bilder, men vi kunde inte få den här betaversionen att fungera med levande bilder. Jag försökte få den att känna igen en DualShock 4 trådlös handkontroll för PlayStation 4 såväl som mitt eget Google Home, men i inget av fallen kunde den känna igen den. Med tanke på att detta är en beta-testversion som vi får tag i, kan vi inte säga att detta är ett fel på produkten. Jag skulle ärligt talat bli chockad om liveversionen av Visual Search inte skulle kunna känna igen något som ett Google Home (även om en del av mig hoppas att det på ett lustigt sätt skulle missta det som en air fräschare).
Är visuell sökning detsamma som Google Lens?
Ingen av sökningarna vi utförde visade några tecken på intelligensen som Google Lens visade på scenen vid Google I/O. Men flera strängar i den senaste Google App APK-filen visar en koppling mellan de två. Inom layoutfilen search_widget.xml finns en rad som nämner att Googles sökwidget kan lägga till en knapp för att starta visuell sökning. Men det som är mest intressant är det faktum att den dragbara som visuellt identifierar denna funktion för användaren heter "google_lens."
<ImageButtonandroid: orientation="horizontal"android:android: background="@drawable/search_box_click_on_transparent"android: paddingLeft="8.0dip"android: paddingTop="8.0dip"android: paddingBottom="8.0dip"android: visibility="gone"android: layout_width="56.0dip"android: layout_height="fill_parent"android: src="@drawable/google_lens"android: scaleType="centerInside"android: contentDescription="@string/accessibility_visual_search_button"android: layoutDirection="locale" />
Den här ikonen, som visas ovan, är exakt samma logotyp som visades under Google Lens-meddelandet på Google I/O.
Dessutom visas samma ikon i en annan fil, kallad navigation_menu.xml. Den här filen definierar vilka element som kommer att visas i sidofältsmenyn i Google-appen. Namnet på denna nya funktion kommer att kallas Visual Search men dess ikon är från Lens.
<com.google.android.apps.gsa.shared.ui.drawer.DrawerEntryandroid:android: tag="ve=37333;track: click"android: visibility="gone"android: layout_width="fill_parent"android: layout_height="wrap_content"thegoogle: imageSrc="@drawable/quantum_ic_google_lens_grey600_24"thegoogle: text="@string/visual_search" />
Det är alltså inte så svårt att sätta ihop två-och-två. Dess mycket troligt att Googles Visual Search i själva verket är Google Lens, men det som gör mig lite tveksam är det faktum att detta nås från Google-appen snarare än inom Google Assistant, vilket är vad som utlovades på Google I/O. Plus, eftersom jag inte kunde få någon av de smarta funktionerna att fungera (och gränssnittet liknade inte den som visas på Google I/O), kan jag inte definitivt hävda att det jag lekte med är Google Lins.
Ändå är vi spännande att se hur bra Google Lens fungerar i praktiken, särskilt med tanke på den ganska nedslående ansträngningen från Samsungs Bixby Vision. Googles I/O-demonstration var snygg, men jag skulle personligen vänta tills vi kan prova det själva.
Vad tycker du om Google Lens? Låt oss veta dina tankar i kommentarerna nedan!