Google Assistant-stemmehandlinger er nu endnu nemmere at bygge for udviklere

I dag annoncerer Google adskillige forbedringer for at gøre det nemmere for udviklere at opbygge nye oplevelser med Assistant.

Google Assistant er et meget kraftfuldt værktøj i sig selv, men det bliver endnu bedre, når du bruger det sammen med andre apps og tjenester. I dag kl Voice Global 2020, en konference for stemmeteknologi, annoncerer Google flere forbedringer for at gøre det nemmere for udviklere at opbygge nye oplevelser med Assistant. I spidsen for denne indsats er den nye webbaserede Actions Builder IDE, men det er kun begyndelsen.

Handlingsbygger

Handlingsbygger er en ny grafisk grænseflade, der giver udviklere mulighed for at visualisere samtaleflowet med Google Assistant. Udviklere kan administrere træningsdata i Natural Language Understanding og få avancerede fejlfindingsværktøjer. Actions Builder er integreret i Actions Console for at gøre det nemt at bygge, fejlrette, teste, frigive og analysere handlinger ét sted i stedet for at skifte frem og tilbage mellem Actions Console og Dialogflow.

Handlingsbygger

Opdateret Actions SDK

Næste op er den opdaterede Actions SDK for udviklere, der foretrækker at arbejde med deres egne værktøjer. Der er nu en filbaseret repræsentation af handlingen og muligheden for at bruge en lokal IDE. SDK'et muliggør lokal oprettelse af naturlig sprogforståelse og samtalestrømme, men også masseimport og eksport af træningsdata. Actions SDK inkluderer også en kommandolinjegrænseflade til udviklere, der foretrækker at arbejde med deres egen kildekontrol og kontinuerlige integrationsværktøjer. Endelig er en ny samtalemodel blevet introduceret sammen med forbedringer af runtime-motoren i for at gøre det nemmere at designe samtaler og for at brugerne bliver hurtigere og mere præcise svar.

Home Storage, opdateret Media API og Continuous Match Mode

Opbevaring til hjemmet

En anden ny funktion kaldes Opbevaring til hjemmet. Dette giver en fælles lagringsløsning til enheder, der er tilsluttet på hjemmegrafen. Udviklere kan derefter gemme kontekst for individuelle brugere, såsom det sidste gemte punkt fra et spil. Opdaterede medie-API'er giver mulighed for længere form mediesessioner og lader brugere genoptage afspilning på tværs af Google Assistant-enheder. En bruger kan for eksempel starte afspilning fra et bestemt øjeblik eller genoptage en session.

Media API-forbedringer

Continuous Match Mode er en anden ny funktion, der gør det muligt for Google Assistant at reagere øjeblikkeligt på kommandoer for mere flydende oplevelser ved at genkende definerede ord og sætninger. Google giver et eksempel på et spil, der i øjeblikket bruger dette, kaldet "Guess The Drawing". Continuous Match Mode giver brugeren mulighed for vokalt at gætte tegningen, indtil de får den korrekt. Google Assistant vil annoncere, at mikrofonen forbliver midlertidigt lyttende, så brugerne ved, at de kan tale frit.

AMP til smartskærme

Endelig har Google annonceret det Accelerated Mobile Pages (AMP) vil komme til Google Assistant-aktiverede smartskærme som Nest Hub. AMP-kompatible artikler såsom nyhedsartikler vil kunne ses på smartskærme senere på sommeren. Vi er ikke sikre på, hvordan dette vil se ud på smartskærme, men Google siger, at der vil komme flere opdateringer i de kommende måneder.


Google siger, at Assistant bruges af over 500 millioner mennesker hver måned på over 30 sprog i 90 lande. Google investerer i at forbedre Assistant, så den er mere naturlig at bruge, og en stor del af den indsats skal involvere udviklere og andre tredjeparter. For eksempel, Googles samtale Duplex AI er blevet brugt til at kontakte virksomheder for at opdatere over 500.000 virksomhedsfortegnelser. Som et andet eksempel nævner Google, hvordan Bamboo Learning bragte deres uddannelsesplatform til Google Assistant, så familier kan undervise deres børn derhjemme med sjove lektioner om matematik, historie og læsning.