Interakcja z Asystentem Google na Nest Hub Max stanie się znacznie łatwiejsza. Nie potrzebujesz już „Hej, Google”.
Podczas dzisiejszego spotkania Google I/O ujawniono duże zmiany dotyczące tego, w jaki sposób będziemy mogli w przyszłości wchodzić w interakcję z Asystentem Google. Być może największą zmianą dla większości jest to, że nie trzeba już mówić „Hej, Google”, aby uruchomić Asystenta. To było wcześniej krążyły pogłoski ale Google ogłosiło to teraz oficjalnie.
Właściciele Nest Hub Max zaczną widzieć nowe opcje już dziś w Stanach Zjednoczonych. Pierwsza nazywa się Look and Talk i działa dokładnie tak, jak się wydaje. Wystarczy spojrzeć na Nest Hub Max i zacząć mówić. Urządzenie rozpozna Cię za pomocą dopasowania twarzy i głosu, dzięki czemu nadal będziesz otrzymywać spersonalizowane wyniki, a całe przetwarzanie odbywa się całkowicie lokalnie. Żadne dane dotyczące rozpoznawania twarzy nie są wysyłane do chmury i jest to usługa opcjonalna.
Drugi to Quick Phrases, czyli rozszerzenie możliwości interakcji z Asystentem Google. Ponownie rezygnuje się z konieczności używania znanego wyrażenia wyzwalającego, ale będziesz mógł robić takie rzeczy, jak ustawić timer, zapytać o godzinę lub włączyć i wyłączyć światła.
Wiąże się to z poprawą sposobu, w jaki Asystent Google Cię rozumie. Asystent jest teraz mądrzejszy, jeśli chodzi o rozumienie mowy naturalnej, w tym tych umm i błędów, które często wyrzucamy. Modele mowy są przenoszone na urządzenie, aby przyspieszyć przetwarzanie. Ten przełom nastąpił dzięki zbudowaniu lepszych sieci neuronowych na chipie Google Tensor.
Patrząc w przyszłość, Asystent będzie mógł lepiej rozumieć niedoskonałości ludzkiej mowy, nie potykając się w górę — łącznie z pauzami, „umm” i przerwami — dzięki czemu Twoje interakcje wydają się znacznie bliższe naturalnym rozmowa.
Przykładem użytym na scenie było pytanie o piosenkę, ale z pauzą i nieznajomość pełnego imienia artysty. Asystent Google jest teraz na tyle inteligentny, że rozumie mowę i pauzę oraz domyśla się, jaka będzie brakująca część.