Google ARCore Depth API hjälper utvecklare att skapa djupkartor genom algoritmer för djup från rörelse, för att möjliggöra funktioner som ocklusion på enheter med en enda kamera.
Google ARCore, som nyligen döptes om till Google Play-tjänster för AR, är Googles försök att utöka Augmented Reality och dess upplevelser till fler och fler enheter utan behov av specialiserad nischhårdvara, till skillnad från tidigare Projekt Tango. Google gör nu ARCore mer uppslukande för ett bredare utbud av enheter genom det nya Depth API.
Enheter under Project Tango, som Lenovo Phab 2 Pro, förlitade sig på dedikerad hårdvara i form av sensorer och kameror för att enheten ska kunna uppfatta djup och 3D-rymd. Behovet av specialiserad hårdvara innebar dock att enheter behövde byggas medvetet för optimala AR-upplevelser, vilket i sin tur slutade störa smartphone-användarupplevelsen. ARCore vände på ekvationen genom att ta bort behovet av dedikerad hårdvara, vilket förde den optimala AR-upplevelsen till smartphones som redan hade spikat användarupplevelsen.
ARCore utökar nu tillgängligheten för sina optimala AR-upplevelser genom det nya ARCore Depth API. Detta nya API förbättrar nedsänkningen för enheter med en enda RGB-kamera, eftersom det tillåter utvecklare att använda Googles djup-från-rörelse-algoritmer för att skapa en djupkarta. Den här djupkartan skapas genom att ta flera bilder från olika vinklar och jämföra dem när användaren flyttar telefonen, och uppskattar avståndet till varje pixel.
Djupdata är användbara för att möjliggöra funktioner som ocklusion: förmågan för digitala objekt att exakt blandas runt verkliga objekt.
Ocklusion som en funktion är nu tillgänglig för över 200 miljoner ARCore-aktiverade Android-enheter genom Scene Viewer, utvecklarverktyget som driver AR i Sök.
Utöver ocklusion möjliggör 3D-djupdata också andra möjligheter, som mer realistisk fysik, vägplanering, ytinteraktion, etc. Depth API kan alltså göra det möjligt för utvecklare att skapa upplevelser som kan ha objekt som exakt studsar och stänker över ytor och texturer, såväl som ny interaktiv spelmekanik som gör det möjligt för spelare att ducka och gömma sig bakom verkligheten föremål.
Eftersom Depth API inte är beroende av specialiserad hårdvara, kommer det att fungera över ett bredare utbud av enheter. Men naturligtvis kommer bättre hårdvara att förbättra upplevelsen. Ytterligare sensorer för djupkartläggning, såsom time-of-flight (ToF) sensorer, kommer att tillåta utvecklare att låsa upp nya funktioner som dynamisk ocklusion - förmågan att blockera bakom rörliga föremål.
Om du vill prova det nya Depth API ber Google dig att fylla i Inbjudan till kollaboratörer här. Google kommer sedan att nå ut till de samarbetspartners som den anser skulle passa bäst för att driva tekniken framåt.
Källa: Google Developers Blog