Google ARCore Depth API hjælper udviklere med at skabe dybdekort gennem dybde-fra-bevægelse-algoritmer for at aktivere funktioner som okklusion på enkeltkameraenheder.
Google ARCore, som for nylig blev omdøbt til Google Play-tjenester til AR, er Googles forsøg på at udvide Augmented Reality og dets oplevelser til flere og flere enheder uden behov for specialiseret nichehardware, i modsætning til tidligere Projekt Tango. Google gør nu ARCore mere fordybende for en bredere vifte af enheder gennem den nye Depth API.
Enheder under Project Tango, som f.eks Lenovo Phab 2 Pro, var afhængig af dedikeret hardware i form af sensorer og kameraer for at gøre det muligt for enheden at opfatte dybde og 3D-rum. Behovet for specialiseret hardware betød dog, at enheder skulle bygges bevidst til optimale AR-oplevelser, hvilket igen endte med at forstyrre smartphone-brugeroplevelsen. ARCore vendte ligningen ved at fjerne behovet for dedikeret hardware og dermed bringe den optimale AR-oplevelse til smartphones, der allerede havde slået brugeroplevelsen fast.
ARCore udvider nu tilgængeligheden af sine optimale AR-oplevelser gennem den nye ARCore Depth API. Denne nye API forbedrer fordybelsen for enheder med et enkelt RGB-kamera, da det giver udviklere mulighed for at gøre brug af Googles dybde-fra-bevægelse-algoritmer til at skabe et dybdekort. Dette dybdekort er skabt ved at tage flere billeder fra forskellige vinkler og sammenligne dem, mens brugeren flytter telefonen, og estimere afstanden til hver pixel.
Dybdedata er nyttige til at aktivere funktioner som okklusion: evnen for digitale objekter til nøjagtigt at blande sig omkring objekter i den virkelige verden.
Okklusion som en funktion er nu tilgængelig for over 200 millioner ARCore-aktiverede Android-enheder gennem Scene Viewer, udviklerværktøjet, der driver AR i søgning.
Ud over okklusion muliggør 3D-dybdedata også andre muligheder, såsom mere realistisk fysik, stiplanlægning, overfladeinteraktion osv. Depth API kan således gøre det muligt for udviklere at skabe oplevelser, der kan få objekter præcist til at hoppe og sprøjte henover overflader og teksturer samt ny interaktiv spilmekanik, der gør det muligt for spillere at dukke og gemme sig bag den virkelige verden genstande.
Da Depth API ikke er afhængig af specialiseret hardware, vil den fungere på tværs af en bredere vifte af enheder. Men selvfølgelig vil bedre hardware forbedre oplevelsen. Yderligere sensorer til dybdekortlægning, såsom time-of-flight (ToF) sensorer, vil give udviklere mulighed for at låse op for nye funktioner som dynamisk okklusion - evnen til at okklusion bag bevægelige objekter.
Hvis du gerne vil prøve den nye Depth API, beder Google dig om at udfylde Formularen Ring til samarbejdspartnere her. Google vil derefter kontakte de samarbejdspartnere, som det mener ville være bedst egnet til at skubbe teknologien fremad.
Kilde: Google Developers Blog