ARCores Depth API hjelper deg med å lage dybdekart ved hjelp av ett enkelt kamera

click fraud protection

Google ARCore Depth API hjelper utviklere med å lage dybdekart gjennom dybde-fra-bevegelse-algoritmer, for å aktivere funksjoner som okklusjon på enheter med enkeltkamera.

Google ARCore, som nylig ble omdøpt til Google Play-tjenester for AR, er Googles forsøk på å utvide Augmented Reality og dets opplevelser til flere og flere enheter uten behov for spesialisert nisjemaskinvare, i motsetning til tidligere Prosjekt Tango. Google gjør nå ARCore mer oppslukende for et bredere utvalg av enheter gjennom den nye Depth API.

Enheter under Project Tango, som Lenovo Phab 2 Pro, avhengig av dedikert maskinvare i form av sensorer og kameraer for å gjøre enheten i stand til å oppfatte dybde og 3D-rom. Behovet for spesialisert maskinvare gjorde imidlertid at enheter måtte bygges bevisst for optimale AR-opplevelser, noe som igjen endte opp med å forstyrre smarttelefonbrukeropplevelsen. ARCore snudde ligningen ved å fjerne behovet for dedikert maskinvare, og dermed bringe den optimale AR-opplevelsen til smarttelefoner som allerede hadde spikret ned brukeropplevelsen.

ARCore utvider nå tilgjengeligheten til sine optimale AR-opplevelser gjennom den nye ARCore Depth API. Denne nye API-en forbedrer innlevelsen for enheter med ett enkelt RGB-kamera, ettersom det lar utviklere bruke Googles dybde-fra-bevegelse-algoritmer for å lage et dybdekart. Dette dybdekartet lages ved å ta flere bilder fra forskjellige vinkler og sammenligne dem mens brukeren beveger telefonen, og estimerer avstanden til hver piksel.

Dybdedata er nyttige for å aktivere funksjoner som okklusjon: muligheten for digitale objekter til å blande seg nøyaktig rundt objekter i den virkelige verden.

Okklusjon som en funksjon er nå tilgjengelig for over 200 millioner ARCore-aktiverte Android-enheter gjennom Scene Viewer, utviklerverktøyet som driver AR i søk.

Utover okklusjon, muliggjør 3D-dybdedata også andre muligheter, som mer realistisk fysikk, stiplanlegging, overflateinteraksjon, etc. Depth API kan dermed gjøre det mulig for utviklere å skape opplevelser som kan ha objekter nøyaktig sprette og sprute over overflater og teksturer, samt ny interaktiv spillmekanikk som gjør det mulig for spillere å dukke og gjemme seg bak den virkelige verden gjenstander.

Siden Depth API ikke er avhengig av spesialisert maskinvare, vil den fungere på tvers av et bredere spekter av enheter. Men selvfølgelig vil bedre maskinvare forbedre opplevelsen. Ytterligere sensorer for dybdekartlegging, for eksempel flytidssensorer (ToF), vil tillate utviklere å låse opp nye funksjoner som dynamisk okklusjon - muligheten til å okkludere bak objekter i bevegelse.

Hvis du vil prøve ut den nye Depth API, ber Google deg fylle ut Ring for samarbeidspartnere-skjemaet her. Google vil da kontakte samarbeidspartnerne som de mener vil passe best til å presse teknologien fremover.


Kilde: Google Developers Blog