Ekskluzywne, praktyczne rozwiązanie z nową funkcją wyszukiwania wizualnego Google w aplikacji Google na Androida. Czy może to być produkt Google Lens firmy I/O?
Przy tak dużej ilości informacji na świecie, wyszukiwarki internetowe są niezbędne do zdobywania wiedzy. Dostęp przez przeglądarkę internetową na komputerze stacjonarnym lub laptopie, dedykowaną aplikację na smartfonie lub tablecie lub poprzez Twoją aplikację głos na smartwatchu lub urządzeniu z asystentem domowym – masz tak wiele możliwości znalezienia informacji, których szukasz. Pomimo pojawienia się technologii, zdecydowana większość wyszukiwań w Internecie nadal odbywa się za pomocą zapytań tekstowych Gogle Google był obiecującym początkiem w udostępnianiu masom wyszukiwania wizualnego. Niestety, Gogle spadły na dalszy plan z powodu braku aktualizacji, ale niedawne ogłoszenie Obiektyw Google’a w I/O wydaje się ożywiać tę koncepcję. Udało nam się zapoznać z nową funkcją wyszukiwania wizualnego w aplikacji Google, choć nie możemy potwierdzić, czy jest to ta sama funkcja, co Google Lens.
Wyszukiwanie wizualne Google
Z tego, co wiemy o tym, jak faktycznie działa Google Lens, wygląda na to, że są to Gogle Google na sterydach. Rozpoznawanie obrazów Google jest już niezwykle wydajne, ale dzięki rosnącej wydajności Google w zakresie sztucznej inteligencji Google Lens będzie w stanie nie tylko zidentyfikować wszelkiego rodzaju obiekty, ale także będzie w stanie zapewnić kontekstowość wyniki. Obiektyw będzie mógł łączyć się z innymi usługami Google, aby dostarczać bardziej spersonalizowane opinie.
W każdym razie teoretycznie. Oprócz krótkiej demonstracji na Google I/O, pokazującej połączenie z siecią Wi-Fi, jest wiele szczegółów na temat Google Lens, o których nie wiemy. Ale przynajmniej możemy rzucić okiem, jak może wyglądać jego interfejs w aplikacji Google.
Należy pamiętać, że poniższe zrzuty ekranu mogą nie przedstawiać ostatecznej wersji produktu Google Visual Search. Ta funkcja jest wyraźnie oznaczona jako „BETA”, więc nasze problemy z usługą (szczegóły poniżej) mogą zostać rozwiązane w ostatecznej wersji. Ponadto oznacza to, że interfejs może podlegać zmianom.
Jak widać interfejs składa się z dużego wizjera aparatu w górnej połowie ekranu oraz listy kategorii na dole. Kategorie rozpoznawania obrazów obejmują:
- Wszystko
- Odzież
- Buty
- Torebki
- Okulary słoneczne
- Kody kreskowe
- Produkty
- Miejsca
- Koty
- Psy
- Kwiaty
Kiedy wybierasz kategorię, podejrzewamy, że Visual Search zawęża swoją bazę danych, aby znacznie szybciej zakończyć zapytanie. W każdym razie, po wybraniu kategorii (lub pozostawieniu opcji „wszystko”), aby rozpocząć wyszukiwanie, wystarczy dotknąć dowolnego miejsca w wizjerze aparatu. Jeśli otoczenie jest zbyt ciemne, możesz włączyć lampę błyskową aparatu, dotykając ikony lampy błyskowej w lewym górnym rogu.
Wykonanie wyszukiwania spowoduje wyświetlenie listy wyników w widoku karty. Możesz przesuwać palcem w lewo i w prawo, aby wyświetlić wszystkie wyniki. Kliknięcie wyniku spowoduje otwarcie strony wyszukiwania Google powiązanej z tym obiektem lub produktem, choć jest to łatwe zdecydować się na przeglądanie strony wyszukiwania w oparciu o inny wynik, przewijając widok minikarty u góry wyszukiwania strona. Otwarcie menu z trzema kropkami w dowolnym wyniku wyszukiwania wizualnego umożliwia także bezpośredni dostęp do źródła obrazu, podobnie jak wyszukiwarka obrazów Google na komputerze.
Przetestowaliśmy wyszukiwanie wizualne zarówno na obrazach statycznych pochodzących z Internetu, jak i na obrazach na żywo. Jak można się spodziewać, wyszukiwanie wizualne działa znakomicie w przypadku obrazów statycznych, ale nie udało nam się uruchomić tej wersji beta z obrazami na żywo. Próbowałem sprawić, aby rozpoznał kontroler bezprzewodowy DualShock 4 dla PlayStation 4, a także mój własny Google Home, ale w żadnym przypadku nie był w stanie go rozpoznać. Biorąc pod uwagę fakt, że jest to wersja beta, którą trafiliśmy w ręce, nie możemy powiedzieć, że jest to wina produktu. Byłbym szczerze zszokowany, gdyby działająca wersja Visual Search nie była w stanie rozpoznać coś w rodzaju Google Home (choć część mnie ma nadzieję, że przezabawnie pomyliłoby to z powietrzem odświeżacz).
Czy wyszukiwanie wizualne to to samo, co Obiektyw Google?
Żadne z wyszukiwań, które przeprowadziliśmy, nie wykazało żadnych oznak inteligencji, którą Google Lens zademonstrował na scenie podczas Google I/O. Jednak kilka ciągów w najnowszym pliku APK aplikacji Google pokazuje połączenie między nimi. W pliku układu search_widget.xml znajduje się wiersz wspominający, że widżet wyszukiwarki Google może dodać przycisk uruchamiający wyszukiwanie wizualne. Ale najbardziej interesujący jest fakt, że rysunek, który wizualnie identyfikuje tę funkcję dla użytkownika, nosi nazwę „google_lens”.
<ImageButtonandroid: orientation="horizontal"android:android: background="@drawable/search_box_click_on_transparent"android: paddingLeft="8.0dip"android: paddingTop="8.0dip"android: paddingBottom="8.0dip"android: visibility="gone"android: layout_width="56.0dip"android: layout_height="fill_parent"android: src="@drawable/google_lens"android: scaleType="centerInside"android: contentDescription="@string/accessibility_visual_search_button"android: layoutDirection="locale" />
Ikona pokazana powyżej to dokładnie to samo logo, które zostało pokazane podczas ogłoszenia Google Lens na konferencji Google I/O.
Ponadto ta sama ikona pojawia się w innym pliku o nazwie nawigacji_menu.xml. Ten plik określa, jakie elementy będą wyświetlane w menu na pasku bocznym aplikacji Google. Nazwa tej nowej funkcji będzie się nazywać Wyszukiwanie wizualne, ale jej ikona pochodzi od Lens.
<com.google.android.apps.gsa.shared.ui.drawer.DrawerEntryandroid:android: tag="ve=37333;track: click"android: visibility="gone"android: layout_width="fill_parent"android: layout_height="wrap_content"thegoogle: imageSrc="@drawable/quantum_ic_google_lens_grey600_24"thegoogle: text="@string/visual_search" />
Zatem połączenie dwóch z dwoma nie jest zbyt trudne. Jego bardzo prawdopodobne, że wyszukiwarka wizualna Google to w rzeczywistości Google Lens, chociaż trochę się waham, ponieważ dostęp do tej funkcji można uzyskać z aplikacji Google, a nie z poziomu Asystenta Google, jak obiecano na konferencji Google I/O. Dodatkowo, ponieważ nie udało mi się uruchomić żadnej inteligentnej funkcji (a interfejs nie przypominał ten pokazany na Google I/O), nie mogę definitywnie stwierdzić, że to, z czym się bawiłem, to Google Obiektyw.
Mimo to nie możemy się już doczekać, jak dobrze Google Lens działa w praktyce, zwłaszcza biorąc pod uwagę dość rozczarowujący wysiłek ze strony Samsunga Bixby Vision. Demonstracja we/wy Google była niezła, ale osobiście wstrzymałbym się z nią do czasu, aż będziemy mogli ją wypróbować sami.
Co sądzisz o Obiektywie Google? Daj nam znać, co myślisz w komentarzach poniżej!