Die Tiefen-API von ARCore hilft bei der Erstellung von Tiefenkarten mit einer einzigen Kamera

Die Google ARCore Depth API unterstützt Entwickler bei der Erstellung von Tiefenkarten mithilfe von Algorithmen zur Erfassung der Tiefe aus der Bewegung, um Funktionen wie die Okklusion auf Einzelkamerageräten zu ermöglichen.

Google ARCore, das kürzlich in umbenannt wurde Google Play-Dienste für AR, ist Googles Versuch, Augmented Reality und seine Erfahrungen auf immer mehr Geräte auszudehnen, ohne dass im Gegensatz zu früher spezielle Nischenhardware erforderlich ist Projekt Tango. Google macht ARCore jetzt durch die neue Depth API für eine größere Vielfalt von Geräten immersiver.

Geräte unter Project Tango, wie z Lenovo Phab 2 Pro, verließ sich auf dedizierte Hardware in Form von Sensoren und Kameras, um dem Gerät die Wahrnehmung von Tiefe und 3D-Raum zu ermöglichen. Der Bedarf an spezieller Hardware bedeutete jedoch, dass Geräte bewusst für optimale AR-Erlebnisse gebaut werden mussten, was wiederum zu Beeinträchtigungen des Smartphone-Benutzererlebnisses führte. ARCore hat die Gleichung umgedreht, indem es die Notwendigkeit dedizierter Hardware überflüssig machte und so das optimale AR-Erlebnis auf Smartphones ermöglichte, die das Benutzererlebnis bereits auf den Punkt gebracht hatten.

ARCore erweitert jetzt die Verfügbarkeit seiner optimalen AR-Erlebnisse durch die neue ARCore Depth API. Diese neue API verbessert die Immersion für Geräte mit einer einzelnen RGB-Kamera, da sie es Entwicklern ermöglicht, die Tiefen-aus-Bewegungs-Algorithmen von Google zu nutzen, um eine Tiefenkarte zu erstellen. Diese Tiefenkarte wird erstellt, indem mehrere Bilder aus verschiedenen Winkeln aufgenommen und verglichen werden, während der Benutzer das Telefon bewegt, wodurch die Entfernung zu jedem Pixel geschätzt wird.

Tiefendaten sind nützlich, um Funktionen wie Okklusion zu ermöglichen: die Fähigkeit digitaler Objekte, sich genau an reale Objekte anzupassen.

Okklusion als Funktion ist jetzt für über 200 Millionen ARCore-fähige Android-Geräte verfügbar Szenenbetrachter, das Entwicklertool, das AR in der Suche unterstützt.

Über die Okklusion hinaus ermöglichen 3D-Tiefendaten auch andere Möglichkeiten, wie realistischere Physik, Pfadplanung, Oberflächeninteraktion usw. Die Tiefen-API kann es Entwicklern somit ermöglichen, Erlebnisse zu schaffen, bei denen Objekte präzise hin- und herspringen und über sie hinwegspritzen können Oberflächen und Texturen sowie neue interaktive Spielmechaniken, die es den Spielern ermöglichen, sich hinter der realen Welt zu verstecken Objekte.

Da die Depth-API nicht auf spezielle Hardware angewiesen ist, funktioniert sie auf einer breiteren Palette von Geräten. Aber natürlich wird eine bessere Hardware das Erlebnis verbessern. Zusätzliche Sensoren für die Tiefenkartierung, wie zum Beispiel Time-of-Flight (ToF)-Sensoren, werden es Entwicklern ermöglichen, neue Funktionen wie dynamische Okklusion freizuschalten – die Fähigkeit, sich hinter sich bewegenden Objekten zu verdecken.

Wenn Sie die neue Depth API ausprobieren möchten, bittet Google Sie, das auszufüllen Hier finden Sie das Formular für den Aufruf zur Einreichung von Vorschlägen für Mitarbeiter. Google wird sich dann an die Mitarbeiter wenden, die seiner Meinung nach am besten geeignet sind, die Technologie voranzutreiben.


Quelle: Google-Entwicklerblog