A Google új funkciókkal frissíti az ARCore API-t, hogy magával ragadja a felhasználókat

click fraud protection

A 2021-es Google I/O rendezvényen a Google bejelent néhány figyelemre méltó frissítést az ARCore platformon, hogy segítse a fejlesztőket a valósághűbb AR-élmények kialakításában.

A Google I/O 2021 rendezvényen a Google bejelent néhány fontos frissítést az ARCore-hoz, a vállalat kiterjesztett valóság platformjához, amely világszerte több mint 850 millió Android-okostelefont működtet. A Project Tangotól eltérően, amely speciális hardvert igényelt, az ARCore a telefon meglévő hardverére támaszkodik. érzékelők a mélységre, a mozgáskövetésre és a fénybecslésre vonatkozó adatok gyűjtésére, hogy segítsenek a fejlesztőknek interaktív AR felépítésében tapasztalatokat.

Indulása óta a Google folyamatosan fejlesztette az ARCore funkciókészletét és képességeit, tolva az AR-alkalmazások fejlesztői által az Android meglévő hardverével megvalósítható korlátok okostelefonok. Tavaly a Google kiadta az ARCore Depth API-t lehetővé teszi a fejlesztők számára, hogy egyetlen RGB-kamera segítségével mélységi térképet készítsenek, és valósághűbb AR-élményeket teremtsenek. Ma a cég két új eszközzel egészíti ki az ARCore arzenálját: a Raw Depth API-t és a Recording and Playback API-t.

ARCore Raw Depth API

Az új Raw Depth API a Mélység API a környező objektumok részletesebb ábrázolása a megfelelő megbízhatósági képekkel rendelkező nyers mélységtérképek generálásával. Míg a Depth API arra összpontosított, hogy simított mélységtérképeket hozzon létre az összes képpont mélységbecslésével, a Raw A Depth API célja, hogy valósághűbb mélységtérképeket készítsen megbízható képekkel, amelyek pixelenkénti mélységet biztosítanak becslés.

Egy másik fejlesztési terület a találati teszt, amely immár mélységi térképeket használ síkok helyett, hogy még nem sík és alacsony textúrájú padlókon is több találati eredményt biztosítson. A TeamViewer LifeAR alkalmazása a mélységi ütési tesztet használta az AR-képességek videohívásokba való integrálására.

Ezek az új fejlesztések nem igényelnek speciális hardvert, például repülési idő (ToF) érzékelőket, és így az ARCore tanúsítvánnyal rendelkező eszközök túlnyomó többségén megvalósíthatók. A Raw Depth API és a mélységi találati teszt mától elérhető a fejlesztők számára.

ARCore Recording and Playback API

Az új Raw Depth API mellett a Google egy új Recording and Playback API-t is bemutat az ARCore-ban, amely nagyobb rugalmasságot biztosít az alkalmazásfejlesztőknek a különböző AR-élmények tesztelésében. Amikor új AR-élményeket készítenek, a fejlesztőknek gyakran folyamatosan tesztelniük kell meghatározott környezetekben és helyeken. Az új Recording and Playback API-val a fejlesztők mostantól videofelvételeket rögzíthetnek AR metaadatokkal mint például a mélység és az IMU mozgásérzékelő adatai, és felhasználják ugyanazt a környezetet a további célokra tesztelés. Az ötlet az, hogy a felvételt egyszer rögzítjük, és sablonként használjuk más AR-effektusok és élmények teszteléséhez, ahelyett, hogy minden alkalommal friss felvételeket készítenénk. A Didi-Rider az API-t használta az AR-alapú útmutatások létrehozására és tesztelésére az alkalmazásában, és 25%-ot tudott megtakarítani a K+F-en, és hat hónappal felgyorsította fejlesztési ciklusát.

A végfelhasználók számára a Recording and Playback API új AR-élményeket is lehetővé tesz, például a rögzítés utáni AR-t. Ez lehetővé teszi a felhasználók számára, hogy egy korábban rögzített videót továbbítsanak az AR-alkalmazásoknak, így nincs szükség arra, hogy fizikailag ott legyenek a helyszínen, és élő kameramenetet készítsenek. Más szóval, a felhasználók egyszer készíthetnek felvételt, majd később hozzáadhatnak AR-effektusokat. A mai naptól elérhető a fejlesztők számára az ARCore Recording and Playback API, amelyről bővebben itt olvashat ez az oldal.