På Google I/O 2021 kunngjør Google noen bemerkelsesverdige oppdateringer til ARCore-plattformen for å hjelpe utviklere med å bygge mer realistiske AR-opplevelser.
På Google I/O 2021 kunngjør Google noen viktige oppgraderinger for ARCore, selskapets augmented reality-plattform som driver mer enn 850 millioner Android-smarttelefoner over hele verden. I motsetning til Project Tango, som krevde spesialisert maskinvare, er ARCore avhengig av telefonens eksisterende maskinvare og sensorer for å samle inn data om dybde, bevegelsessporing og lysestimering for å hjelpe utviklere med å bygge interaktiv AR opplevelser.
Siden lanseringen har Google jevnlig forbedret funksjonssettet og egenskapene til ARCore, presserende grensene for hva utviklere av AR-apper kan oppnå med den eksisterende maskinvaren til Android smarttelefoner. I fjor, Google lanserte ARCore Depth API for å tillate utviklere å generere et dybdekart ved hjelp av bare ett enkelt RGB-kamera og skape mer realistiske AR-opplevelser. I dag legger selskapet til to nye verktøy til ARCores arsenal: Raw Depth API og Recording and Playback API.
ARCore Raw Depth API
Den nye Raw Depth API bygger på Dybde API å gi mer detaljerte representasjoner av omkringliggende objekter ved å generere rå dybdekart med tilsvarende konfidensbilder. Mens Depth API fokuserte på å generere glattede dybdekart med dybdeanslag for alle piksler, Depth API har som mål å fange opp mer realistiske dybdekart med tillitsbilder som gir en dybde per piksel anslag.
Et annet forbedringsområde er trefftesten som nå bruker dybdekart i stedet for fly for å gi flere trefftestresultater selv på ikke-plane og lavteksturgulv. TeamViewers LifeAR-app har brukt dybdetrefftesten for å integrere AR-funksjoner i videosamtaler.
Disse nye forbedringene krever ikke spesialisert maskinvare som time-of-flight (ToF) sensorer og kan derfor implementeres på et stort flertall av ARCore-sertifiserte enheter. Raw Depth API og dybdetrefftesten er tilgjengelig for utviklere fra og med i dag.
ARCore Recording and Playback API
Ved siden av den nye Raw Depth API, lanserer Google også en ny Recording and Playback API i ARCore som gir apputviklere større fleksibilitet for å teste ut forskjellige AR-opplevelser. Når man bygger nye AR-opplevelser, må utviklere ofte kontinuerlig teste i spesifikke miljøer og steder. Med den nye Recording and Playback API kan utviklere nå ta opp videoopptak med AR-metadata for eksempel dybde- og IMU-bevegelsessensordata, og bruk den til å gjenskape det samme miljøet for videre testing. Ideen her er å ta opp opptakene én gang og bruke det som en mal for å teste ut andre AR-effekter og opplevelser i stedet for å ta nye opptak hver gang. Ride-hailing-appen Didi-Rider brukte API-en til å bygge og teste AR-drevne retninger i appen sin og var i stand til å spare 25 % på FoU og akselererte utviklingssyklusen med seks måneder.
For sluttbrukere muliggjør Recording and Playback API også nye AR-opplevelser som post-capture AR. Dette lar brukere mate en tidligere innspilt video til AR-apper, fjerner behovet for å være fysisk der på stedet og foreta en live kameraøkt. Med andre ord kan brukere ta opptak én gang og legge til AR-effekter senere. ARCore Recording and Playback API er tilgjengelig for utviklere fra og med i dag, og du kan lese mer om det på denne siden.