Auf der Google I/O 2019 kündigte das Unternehmen ein neues Local Home SDK, Vollbild-App-Unterstützung für Smart Displays und mehr App-Zugriff auf App Actions an.
Update 2 (06.04.20 um 14:25 Uhr ET): Das Local Home SDK von Google erreicht Version 1.0 und verlässt die Entwicklervorschau.
Update 1 (09.07.19 um 14:25 Uhr ET): Google startet heute die Local Home SDK Developer Preview.
Google I/O geht zu Ende, aber es gibt noch einige Ankündigungen, die etwas unter dem Radar blieben. Schließlich gibt es während der Konferenz so viele Vorträge und Veranstaltungen, dass es schwierig ist, den Überblick zu behalten. Ein solcher Bereich, der übersehen wurde, ist Actions on Google. Auf der Google I/O 2019 kündigte das Unternehmen ein neues Local Home SDK, Vollbild-App-Unterstützung für Smart Displays und Zugriff von Drittanbietern auf App Actions an.
Für diejenigen, die mit Actions on Google möglicherweise nicht vertraut sind: Es handelt sich im Grunde genommen um die Entwicklerseite der Google Assistant-Integrationen. Dadurch können Entwickler die fantastischen Integrationen mit Assistant erstellen, die wir täglich verwenden, und Google erweitert die Funktionalität ständig. Die Plattform erhält neue Tools für Web, Mobile und Smart Home. Werfen wir einen Blick darauf, was das alles bedeutet.
Local Home SDK
Die Smart-Home-Integration ist ein wichtiger Bestandteil von Google Assistant und laut Google gibt es mittlerweile mehr als 30.000 kompatible vernetzte Geräte. Der Local Home SDK ist ein Schritt, um die Integration mit intelligenten Geräten noch besser zu machen.
Das Local Home SDK ermöglicht die lokale Ausführung von Smart-Home-Code auf Google Home-Lautsprechern und Nest-Displays, die dann über ihre Funkgeräte lokal mit Smart-Geräten kommunizieren können. Dies beschleunigt Befehle und macht sie zuverlässiger, indem die Anzahl der Cloud-Aufrufe reduziert wird.
Das Local Home SDK verbessert auch das Einrichtungserlebnis für Smart-Geräte. Google hat damit bereits letztes Jahr mit GE begonnen und Sie können die Beleuchtung direkt über die Google Home-App einrichten. Dies ist eine viel einfachere und nahtlosere Erfahrung für Benutzer. Google hat bereits begonnen, mit Partnern wie Philips, Wemo und LIFX an diesem SDK zusammenzuarbeiten.
Vollbild-Apps
Intelligente Displays werden zu einem immer größeren Teil des Google Assistant-Hardware-Ökosystems. Auf der diesjährigen I/O: Google hat den Nest Hub Max auf den Markt gebracht mit großem 10-Zoll-Display. Mit einer Vorschau von „Interactive Canvas“ ermöglicht Google Entwicklern, die Vorteile dieser Displays voll auszuschöpfen. Dadurch können Apps den gesamten Bildschirm für Sprache, Bilder und Berührungen nutzen, dies ist jedoch nicht nur auf Smart beschränkt zeigt an. Es kann auch auf Android-Telefonen funktionieren. Interactive Canvas ist derzeit für Spiele verfügbar (wie HQ University), aber bald wird Google weitere Kategorien hinzufügen.
Weitere App-Aktionen
Lassen Sie uns zum Schluss über die neuen Funktionen sprechen App-Aktionen. App-Aktionen waren angekündigt auf der Google I/O im letzten Jahr, aber bisher war es ziemlich begrenzt. Jetzt öffnet Google es für weitere Apps. Mit App-Aktionen können Entwickler Absichten von Assistant verwenden, um Deep-Links zu bestimmten Teilen von Apps zu erstellen. Im Wesentlichen eine sprachgesteuerte Verknüpfung, aber viel leistungsfähiger.
Google hat für diese Zwecke vier neue Kategorien angekündigt: Gesundheit und Fitness, Finanzen und Bankwesen, Mitfahrgelegenheiten und Essensbestellung. Ein Beispiel für eine neue Nutzung ist das Starten eines Trainings in einer Fitness-App. Sie können „Hey Google, starte meinen Lauf im Nike Run Club“ sagen und die App wird geöffnet und beginnt mit der Aufzeichnung Ihres Laufs. Sie müssen die App nicht finden und das Training manuell starten.
Sie sagen, dass es für Entwickler unglaublich einfach ist, diese Integrationen hinzuzufügen. Anscheinend wurde die Nike Run Club-Funktion durch das Hinzufügen einer Actions.xml-Datei in weniger als einem Tag implementiert. Im obigen Beispiel ist Assistant direkt in die App gesprungen, kann aber auch Karten (Slices) direkt in der Assistant-Konversation anzeigen.
Diese Tools ermöglichen es Entwicklern, mehr mit Google Assistant zu tun, was für Verbraucher großartig ist. Häuser werden immer intelligenter, Displays werden immer häufiger eingesetzt und Benutzer werden sich jetzt noch mehr auf Sprachassistenten verlassen, um ihre Aufgaben zu erledigen. Besuche die Aktions-Website um mehr über die Erstellung von Apps mit diesen Tools zu erfahren.
Quelle: Google
Update 1: Entwicklervorschau
Nachdem das Unternehmen das Local Home SDK bereits im Mai während der Google I/O angekündigt hatte, stellt es das SDK nun in einer Entwicklervorschau vor. Google hat die Plattform mit Partnern getestet und sie sind bereit, weitere Funktionen einzuführen. Wie bei der I/O erwähnt, ermöglicht das SDK Entwicklern eine umfassende Integration ihrer Smart-Geräte in Assistant. Google hat eine API-Referenz sowie Entwicklerhandbücher und Beispiele veröffentlicht, um den Einstieg zu erleichtern. Feedback während des Tests kann über das übermittelt werden Bug-Tracker Und /r/GoogleAssistantDev.
Quelle: Google
Update 2: Keine Vorschau mehr
Das Local Home SDK von Google erschien letzten Juli in einer Entwicklervorschau und ist jetzt bereit für die Hauptsendezeit. Das Local Home SDK hat die Entwicklervorschauphase verlassen und ist jetzt in Version 1.0 über die Action-Konsole verfügbar.
Die Version fügt eine Reihe neuer Funktionen hinzu. Entwickler können Smart-Home-Aktionen lokale Erfüllung hinzufügen, wodurch Befehle über das lokale Netzwerk statt über die Cloud an ein Gerät weitergeleitet werden. Dies reduziert die Latenz und verbessert die Zuverlässigkeit. Das SDK kann lokale Geräte über WLAN über mDNS-, UDP- oder UPnP-Protokolle erkennen. Apps können dann einen Befehl über TCP, UDP oder HTTP senden.
Google hat außerdem die Scankonfigurationen in der Aktionskonsole verbessert. Entwickler können mehrere Scankonfigurationen eingeben, wodurch lokale Fulfillment-Apps mehrere Geräte verarbeiten können, die möglicherweise unterschiedliche Erkennungsprotokolle verwenden. Schließlich akzeptiert die SDK-Konfigurationsseite jetzt das Hochladen von JavaScript-Dateien für lokale Fulfillment-Apps.
Quelle: Google