Google aktualisiert die ARCore-API mit neuen Funktionen, um Benutzer in den Bann zu ziehen

Auf der Google I/O 2021 kündigt Google einige bemerkenswerte Updates der ARCore-Plattform an, um Entwicklern dabei zu helfen, realistischere AR-Erlebnisse zu schaffen.

Auf der Google I/O 2021 kündigt Google einige wichtige Upgrades für ARCore an, die Augmented-Reality-Plattform des Unternehmens, die weltweit mehr als 850 Millionen Android-Smartphones antreibt. Im Gegensatz zu Project Tango, das spezielle Hardware erforderte, verlässt sich ARCore auf die vorhandene Hardware Ihres Telefons und Sensoren sammeln Daten zu Tiefe, Bewegungsverfolgung und Lichteinschätzung, um Entwicklern beim Aufbau interaktiver AR zu helfen Erfahrungen.

Seit seiner Einführung hat Google den Funktionsumfang und die Fähigkeiten von ARCore kontinuierlich verbessert und vorangetrieben die Grenzen dessen, was Entwickler von AR-Apps mit der vorhandenen Android-Hardware erreichen können Smartphones. Letztes Jahr, Google hat die ARCore Depth API veröffentlicht um es Entwicklern zu ermöglichen, mit nur einer einzigen RGB-Kamera eine Tiefenkarte zu erstellen und realistischere AR-Erlebnisse zu schaffen. Heute erweitert das Unternehmen das Arsenal von ARCore um zwei neue Tools: Raw Depth API und Recording and Playback API.

ARCore Raw Depth API

Die neue Raw Depth API baut auf auf Tiefen-API um detailliertere Darstellungen umgebender Objekte bereitzustellen, indem Rohtiefenkarten mit entsprechenden Vertrauensbildern erstellt werden. Während sich die Depth-API auf die Generierung geglätteter Tiefenkarten mit Tiefenschätzungen für alle Pixel konzentrierte, ist die Raw Die Tiefen-API zielt darauf ab, realistischere Tiefenkarten mit zuverlässigen Bildern zu erfassen, die eine Tiefe pro Pixel bieten schätzen.

Ein weiterer Verbesserungsbereich ist der Treffertest, der jetzt Tiefenkarten anstelle von Ebenen verwendet, um selbst auf nicht ebenen Böden und Böden mit geringer Textur mehr Treffertestergebnisse zu liefern. Die LifeAR-App von TeamViewer hat den Tiefen-Hit-Test genutzt, um AR-Funktionen in Videoanrufe zu integrieren.

Diese neuen Verbesserungen erfordern keine spezielle Hardware wie Flugzeitsensoren (ToF) und können daher auf der überwiegenden Mehrheit der ARCore-zertifizierten Geräte implementiert werden. Die Raw Depth API und der Depth Hit-Test stehen Entwicklern ab heute zur Verfügung.

ARCore-Aufzeichnungs- und Wiedergabe-API

Neben der neuen Raw Depth API stellt Google auch eine neue Aufnahme- und Wiedergabe-API in ARCore vor, die App-Entwicklern mehr Flexibilität beim Testen verschiedener AR-Erlebnisse bietet. Beim Erstellen neuer AR-Erlebnisse müssen Entwickler häufig kontinuierlich Tests in bestimmten Umgebungen und Orten durchführen. Mit der neuen Aufnahme- und Wiedergabe-API können Entwickler jetzt Videomaterial mit AR-Metadaten aufzeichnen B. Tiefen- und IMU-Bewegungssensordaten, und verwenden Sie diese, um dieselbe Umgebung für weitere Zwecke wiederherzustellen testen. Die Idee dabei ist, das Filmmaterial einmal aufzunehmen und es als Vorlage zum Testen anderer AR-Effekte und -Erlebnisse zu verwenden, anstatt jedes Mal neues Filmmaterial aufzunehmen. Die Ride-Hailing-App Didi-Rider nutzte die API, um AR-gestützte Wegbeschreibungen in ihrer App zu erstellen und zu testen, konnte 25 % bei Forschung und Entwicklung einsparen und ihren Entwicklungszyklus um sechs Monate beschleunigen.

Für Endbenutzer ermöglicht die Aufnahme- und Wiedergabe-API auch neue AR-Erlebnisse wie Post-Capture-AR. Auf diese Weise können Benutzer ein zuvor aufgezeichnetes Video an AR-Apps weiterleiten, sodass sie nicht mehr physisch vor Ort sein und eine Live-Kamerasitzung durchführen müssen. Mit anderen Worten: Benutzer können einmal Filmmaterial aufnehmen und später AR-Effekte hinzufügen. Die ARCore-Aufzeichnungs- und Wiedergabe-API steht Entwicklern ab heute zur Verfügung, und Sie können mehr darüber lesen diese Seite.