في Google I/O 2021، تعلن Google عن بعض التحديثات الملحوظة لمنصة ARCore لمساعدة المطورين على بناء تجارب واقع معزز أكثر واقعية.
في Google I/O 2021، تعلن Google عن بعض الترقيات المهمة لـ ARCore، منصة الواقع المعزز للشركة والتي تعمل على تشغيل أكثر من 850 مليون هاتف ذكي يعمل بنظام Android في جميع أنحاء العالم. على عكس مشروع Tango، الذي يتطلب أجهزة متخصصة، يعتمد ARCore على الأجهزة الموجودة بهاتفك وعلى أجهزة استشعار لجمع البيانات حول العمق وتتبع الحركة وتقدير الضوء لمساعدة المطورين على بناء الواقع المعزز التفاعلي خبرة.
منذ إطلاقها، قامت Google بتحسين مجموعة ميزات وقدرات ARCore بشكل مطرد، مما دفعها إلى الأمام حدود ما يمكن لمطوري تطبيقات الواقع المعزز تحقيقه باستخدام أجهزة Android الحالية الهواتف الذكية. العام الماضي جوجل أصدرت ARCore Depth API للسماح للمطورين بإنشاء خريطة عمق باستخدام كاميرا RGB واحدة فقط وإنشاء تجارب واقع معزز أكثر واقعية. واليوم، تضيف الشركة أداتين جديدتين إلى ترسانة ARCore: Raw Depth API وRecording and Playback API.
ARCore Raw Depth API
تعتمد واجهة برمجة تطبيقات Raw Depth الجديدة على
واجهة برمجة تطبيقات العمق لتوفير تمثيلات أكثر تفصيلاً للأشياء المحيطة عن طريق إنشاء خرائط عمق أولية مع صور الثقة المقابلة. بينما ركزت Depth API على إنشاء خرائط عمق سلسة مع تقديرات العمق لجميع وحدات البكسل، فإن Raw تهدف Depth API إلى التقاط خرائط عمق أكثر واقعية مع صور موثوقة توفر عمقًا لكل بكسل تقدير.هناك مجال آخر للتحسين وهو اختبار النجاح الذي يستخدم الآن خرائط العمق بدلاً من المستويات لتوفير المزيد من نتائج اختبار النجاح حتى على الأرضيات غير المستوية ومنخفضة الملمس. استخدم تطبيق LifeAR الخاص ببرنامج TeamViewer اختبار العمق لدمج إمكانات الواقع المعزز في مكالمات الفيديو.
لا تتطلب هذه التحسينات الجديدة أجهزة متخصصة مثل مستشعرات زمن الرحلة (ToF)، وبالتالي يمكن تنفيذها على الغالبية العظمى من الأجهزة المعتمدة من ARCore. تتوفر واجهة برمجة تطبيقات Raw Depth واختبار العمق للمطورين بدءًا من اليوم.
واجهة برمجة تطبيقات التسجيل والتشغيل ARCore
إلى جانب واجهة برمجة تطبيقات Raw Depth الجديدة، تطلق Google أيضًا واجهة برمجة تطبيقات جديدة للتسجيل والتشغيل في ARCore والتي تمنح مطوري التطبيقات مرونة أكبر لاختبار تجارب الواقع المعزز المختلفة. عند بناء تجارب الواقع المعزز الجديدة، غالبًا ما يتعين على المطورين إجراء الاختبار بشكل مستمر في بيئات وأماكن محددة. باستخدام واجهة برمجة تطبيقات التسجيل والتشغيل الجديدة، يمكن للمطورين الآن تسجيل لقطات فيديو باستخدام بيانات تعريف الواقع المعزز مثل بيانات مستشعر العمق وحركة IMU واستخدامها لإعادة إنشاء نفس البيئة لمزيد من المعلومات اختبارات. الفكرة هنا هي تسجيل اللقطات مرة واحدة واستخدامها كقالب لاختبار تأثيرات وتجارب الواقع المعزز الأخرى بدلاً من تصوير لقطات جديدة في كل مرة. استخدم تطبيق طلب سيارات الأجرة Didi-Rider واجهة برمجة التطبيقات (API) لبناء واختبار التوجيهات المدعومة بالواقع المعزز في تطبيقه، وتمكن من توفير 25% من تكاليف البحث والتطوير وتسريع دورة تطويره لمدة ستة أشهر.
بالنسبة للمستخدمين النهائيين، تتيح واجهة برمجة التطبيقات للتسجيل والتشغيل أيضًا تجارب الواقع المعزز الجديدة مثل الواقع المعزز بعد الالتقاط. ويتيح ذلك للمستخدمين إرسال مقطع فيديو تم تسجيله مسبقًا إلى تطبيقات الواقع المعزز، مما يلغي الحاجة إلى التواجد فعليًا في الموقع وإجراء جلسة كاميرا مباشرة. بمعنى آخر، يمكن للمستخدمين تصوير اللقطات مرة واحدة وإضافة تأثيرات الواقع المعزز لاحقًا. تتوفر واجهة برمجة التطبيقات ARCore Recording and Playback API للمطورين بدءًا من اليوم، ويمكنك قراءة المزيد عنها على هذا الرابط هذه الصفحة.