Praktisch mit der visuellen Suche von Google für Android

click fraud protection

Exklusive praktische Erfahrung mit der neuen visuellen Suchfunktion von Google für die Google App in Android. Könnte dies das Google Lens-Produkt von I/O sein?

Bei so vielen Informationen auf der Welt sind Internet-Suchmaschinen für die Wissensbeschaffung von entscheidender Bedeutung. Zugriff über den Webbrowser auf Ihrem Desktop- oder Laptop-PC, eine spezielle App auf Ihrem Smartphone oder Tablet oder über Ihr Stimme auf einer Smartwatch oder einem Home-Assistenz-Gerät – Sie haben so viele Möglichkeiten, die gesuchten Informationen zu finden. Die überwiegende Mehrheit der Websuchen wird immer noch über Textabfragen durchgeführt, obwohl dies auf dem Vormarsch ist Google-Brille war ein vielversprechender Anfang, um die visuelle Suche der breiten Masse zugänglich zu machen. Leider ist Goggles aufgrund fehlender Updates auf der Strecke geblieben, aber die jüngste Ankündigung von Google Lens at I/O scheint das Konzept wiederzubeleben. Wir konnten die neue visuelle Suchfunktion der Google App ausprobieren, können jedoch nicht bestätigen, ob es sich dabei um dieselbe Funktion wie bei Google Lens handelt.


Die visuelle Suche von Google

Nach dem Wenigen, das wir darüber wissen, wie Google Lens tatsächlich funktioniert, scheint es sich um Google Goggles mit Steroiden zu handeln. Die Bilderkennung von Google ist bereits unglaublich leistungsfähig, aber dank Googles wachsender KI-Fähigkeit Google Lens wird nicht nur in der Lage sein, alle Arten von Objekten zu identifizieren, sondern auch kontextbezogene Informationen bereitzustellen Ergebnisse. Lens wird in der Lage sein, mit anderen Google-Diensten zu kommunizieren, um personalisierteres Feedback zu geben.

Zumindest theoretisch. Neben einer kurzen Demonstration bei Google I/O, die die Verbindung mit einem WLAN-Netzwerk vorstellt, gibt es viele Einzelheiten zu Google Lens, die uns nicht bekannt sind. Aber zumindest können wir einen Blick darauf werfen, wie die Benutzeroberfläche in der Google App aussehen könnte.

Bitte beachten Sie, dass die folgenden Screenshots möglicherweise nicht repräsentativ für das endgültige Google Visual Search-Produkt sind. Die Funktion ist deutlich als „BETA“ gekennzeichnet, sodass unsere Probleme mit dem Dienst (siehe unten) möglicherweise bis zur endgültigen Version behoben sind. Darüber hinaus bedeutet dies, dass sich die Schnittstelle ändern kann.

Wie Sie sehen können, besteht die Benutzeroberfläche aus einem großen Kamerasucher in der oberen Hälfte des Bildschirms und einer Liste von Kategorien unten. Die Bilderkennungskategorien bestehen aus:

  • Alle
  • Kleidung
  • Schuhe
  • Handtaschen
  • Sonnenbrille
  • Barcodes
  • Produkte
  • Setzt
  • Katzen
  • Hunde
  • Blumen

Wenn Sie eine Kategorie auswählen, vermuten wir, dass Visual Search seine Datenbank einschränkt, um die Abfrage viel schneller abzuschließen. Sobald Sie eine Kategorie ausgewählt haben (oder bei „Alle“ bleiben), tippen Sie zum Starten der Suche einfach auf eine beliebige Stelle im Sucher der Kamera. Wenn die Umgebung zu dunkel ist, können Sie den Kamerablitz aktivieren, indem Sie auf das Blitzsymbol in der oberen linken Ecke tippen.

Wenn Sie eine Suche durchführen, wird eine Ergebnisliste in der Kartenansicht angezeigt. Sie können nach links und rechts wischen, um alle Ergebnisse anzuzeigen. Wenn Sie auf ein Ergebnis tippen, wird eine Google-Suchseite geöffnet, die sich auf dieses Objekt oder Produkt bezieht. Dies ist jedoch problemlos möglich Wählen Sie die Möglichkeit, die Suchseite zu einem anderen Ergebnis durchzugehen, indem Sie durch die Minikartenansicht über der Suche scrollen Seite. Das Öffnen des Dreipunktmenüs in einem beliebigen visuellen Suchergebnis bietet auch die Möglichkeit, direkt auf die Bildquelle zuzugreifen, ähnlich wie bei der Desktop-Bildersuche von Google.

Wir haben die visuelle Suche sowohl mit statischen Bildern aus dem Internet als auch mit Live-Bildern getestet. Wie erwartet funktioniert die visuelle Suche bei statischen Bildern hervorragend, wir konnten diese Betaversion jedoch nicht mit Live-Bildern zum Laufen bringen. Ich habe versucht, einen DualShock 4 Wireless-Controller für die PlayStation 4 sowie mein eigenes Google Home zu erkennen, konnte ihn aber in keinem Fall erkennen. Angesichts der Tatsache, dass es sich hierbei um eine Beta-Testversion handelt, die wir in die Hände bekommen, können wir nicht sagen, dass dies ein Fehler des Produkts ist. Ich wäre ehrlich gesagt schockiert, wenn die Live-Version von Visual Search die Erkennung nicht erkennen könnte So etwas wie ein Google Home (obwohl ein Teil von mir hofft, dass es komischerweise als Air verwechselt wird Lufterfrischer).


Ist Visual Search dasselbe wie Google Lens?

Keine der von uns durchgeführten Suchanfragen zeigte Anzeichen der Intelligenz, die Google Lens auf der Bühne der Google I/O demonstrierte. Mehrere Zeichenfolgen in der neuesten Google App APK-Datei weisen jedoch auf einen Zusammenhang zwischen beiden hin. In der Layoutdatei „search_widget.xml“ gibt es eine Zeile, die darauf hinweist, dass das Google-Such-Widget möglicherweise eine Schaltfläche zum Starten der visuellen Suche hinzufügt. Am interessantesten ist jedoch die Tatsache, dass das Zeichenelement, das diese Funktion für den Benutzer visuell identifiziert, den Namen „google_lens“ trägt.

<ImageButtonandroid: orientation="horizontal"android:android: background="@drawable/search_box_click_on_transparent"android: paddingLeft="8.0dip"android: paddingTop="8.0dip"android: paddingBottom="8.0dip"android: visibility="gone"android: layout_width="56.0dip"android: layout_height="fill_parent"android: src="@drawable/google_lens"android: scaleType="centerInside"android: contentDescription="@string/accessibility_visual_search_button"android: layoutDirection="locale" />

Dieses oben gezeigte Symbol ist genau das gleiche Logo, das während der Google Lens-Ankündigung auf der Google I/O gezeigt wurde.

Darüber hinaus wird dasselbe Symbol in einer anderen Datei mit dem Namen navigation_menu.xml angezeigt. Diese Datei definiert, welche Elemente im Seitenleistenmenü der Google App angezeigt werden. Der Name dieser neuen Funktion wird „Visuelle Suche“ heißen, das Symbol stammt jedoch von Lens.

<com.google.android.apps.gsa.shared.ui.drawer.DrawerEntryandroid:android: tag="ve=37333;track: click"android: visibility="gone"android: layout_width="fill_parent"android: layout_height="wrap_content"thegoogle: imageSrc="@drawable/quantum_ic_google_lens_grey600_24"thegoogle: text="@string/visual_search" />

Daher ist es nicht allzu schwer, zwei und zwei zusammenzuzählen. Es ist Es ist sehr wahrscheinlich, dass es sich bei der visuellen Suche von Google tatsächlich um Google Lens handelt, was mich allerdings etwas zögerlich macht, ist die Tatsache, dass darauf über die Google App und nicht über Google Assistant zugegriffen wird, wie es auf der Google I/O versprochen wurde. Außerdem konnte ich keine der intelligenten Funktionen zum Laufen bringen (und die Benutzeroberfläche ähnelte nicht (das bei Google I/O gezeigte) kann ich nicht definitiv behaupten, dass das, womit ich herumgespielt habe, Google ist Linse.

Dennoch sind wir gespannt, wie gut Google Lens in der Praxis funktioniert, insbesondere angesichts der eher enttäuschenden Leistung von Samsungs Bixby Vision. Die I/O-Demonstration von Google war nett, aber ich persönlich würde warten, bis wir es selbst ausprobieren können.


Was halten Sie von Google Lens? Teilen Sie uns Ihre Meinung in den Kommentaren unten mit!