تقوم Google بفصل واجهات برمجة التطبيقات ML Kit الموجودة على الجهاز عن Firebase

click fraud protection

قامت Google بفصل واجهات برمجة التطبيقات للتعلم الآلي على الجهاز في ML Kit عن Firebase وأعلنت عن برنامج جديد للوصول المبكر لاختبار واجهات برمجة التطبيقات القادمة.

تستخدم Google الذكاء الاصطناعي على نطاق واسع لتقديم نتائج بحث ويب وصور عالية السياقية ودقيقة. إلى جانب البحث على منصة الويب، توفر نماذج التعلم الآلي من Google أيضًا مجموعة متنوعة من تطبيقات الذكاء الاصطناعي على هواتف Android بدءًا من البحث المرئي إلى عدسة جوجل ل التصوير الحسابي التي تشتهر بها أجهزة Pixel. وبصرف النظر عن تطبيقاتها الخاصة، تسمح Google أيضًا لمطوري الطرف الثالث بدمج ميزات التعلم الآلي في تطبيقاتهم بسلاسة بمساعدة ML Kit، وهي SDK (مجموعة تطوير البرامج) التي تعد جزءًا من Firebase - لوحة التحكم الخاصة بالإدارة والتحليلات عبر الإنترنت للجوال تطوير. اعتبارًا من اليوم، تعلن Google عن تغيير كبير في ML Kit وستجعل واجهات برمجة التطبيقات على الجهاز مستقلة عن Firebase.

تم الإعلان عن ML Kit في Google I/O 2018 لتبسيط إضافة ميزات التعلم الآلي إلى التطبيقات. في وقت إطلاقها، كانت ML Kit تتألف من التعرف على النص، واكتشاف الوجه، ومسح الباركود، ووضع العلامات على الصور، وواجهات برمجة التطبيقات للتعرف على المعالم. في في أبريل 2019، قدمت Google أولى واجهات برمجة التطبيقات الخاصة بمعالجة اللغات الطبيعية (NLP) إلى SDK للمطورين في شكل الرد الذكي واللغة تعريف. وبعد شهر، أي في Google I/O 2019،

قدمت Google ثلاث واجهات برمجة تطبيقات جديدة لتعلم الآلة للترجمة على الجهاز، واكتشاف الكائنات وتتبعها، و واجهة برمجة تطبيقات AutoML Vision Edge لتحديد كائنات محددة مثل أنواع الزهور أو الطعام باستخدام البحث البصري.

تشتمل ML Kit على واجهات برمجة التطبيقات (APIs) الموجودة على الجهاز والقائمة على السحابة. كما هو متوقع، تقوم واجهات برمجة التطبيقات الموجودة على الجهاز بمعالجة البيانات باستخدام نماذج التعلم الآلي المحفوظة على الجهاز نفسها بينما ترسل واجهات برمجة التطبيقات المستندة إلى السحابة البيانات إلى نماذج التعلم الآلي المستضافة على Cloud Platform من Google وتتلقى البيانات التي تم حلها عبر الإنترنت اتصال. نظرًا لأن واجهات برمجة التطبيقات الموجودة على الجهاز تعمل بدون الإنترنت، فيمكنها تحليل المعلومات بسرعة أكبر وتكون أكثر أمانًا من نظيراتها المستندة إلى السحابة. يمكن أيضًا تسريع واجهات برمجة التطبيقات للتعلم الآلي على الجهاز على أجهزة Android التي تعمل بنظام Android Oreo 8.1 والإصدارات الأحدث وتشغيل واجهة برمجة تطبيقات الشبكات العصبية من Google (NNAPI) جنبًا إلى جنب مع كتل حسابية خاصة أو وحدات NPU الموجودة في أحدث الشرائح من كوالكوم، ميديا ​​تيك، هايسيليكون، الخ.

نشرت جوجل مؤخرًا أ مشاركة مدونة الإعلان عن أن واجهات برمجة التطبيقات الموجودة على الجهاز من ML Kit ستكون متاحة الآن كجزء من SDK مستقل. وهذا يعني أن واجهات برمجة التطبيقات الموجودة على الجهاز في ML Kit - بما في ذلك التعرف على النص، ومسح الرمز الشريطي، واكتشاف الوجه، ووضع العلامات على الصور، واكتشاف الكائنات، التتبع، وتحديد اللغة، والرد الذكي، والترجمة على الجهاز - ستكون متاحة ضمن حزمة SDK منفصلة يمكن الوصول إليها بدون Firebase. ومع ذلك، توصي Google باستخدام ML Kit SDK في Firebase ترحيل مشاريعهم القائمة إلى SDK المستقل الجديد. جديد موقع مصغر تم إطلاقه بجميع الموارد المتعلقة بـ ML Kit.

بخلاف SDK الجديد، أعلنت Google عن بعض التغييرات التي تسهل على المطورين دمج نماذج التعلم الآلي في تطبيقاتهم. أولاً، يتم الآن تقديم نموذج اكتشاف الوجه/الكونتور كجزء من خدمات Google Play حتى لا يضطر المطورون إلى استنساخ واجهة برمجة التطبيقات والنموذج بشكل منفصل لتطبيقاتهم. يتيح ذلك حجمًا أصغر لحزمة التطبيق والقدرة على إعادة استخدام النموذج داخل تطبيقات أخرى بسلاسة أكبر.

ثانيا، أضافت جوجل دورة حياة Android Jetpack دعم لجميع واجهات برمجة التطبيقات. سيساعد هذا في إدارة استخدام واجهات برمجة التطبيقات عندما يخضع التطبيق لتدوير الشاشة أو يتم إغلاقه من قبل المستخدم. بالإضافة إلى ذلك، فهو يسهل أيضًا التكامل السهل بين مكتبة CameraX Jetpack في التطبيقات التي تستخدم ML Kit.

ثالثا، أعلنت جوجل عن برنامج الوصول المبكر حتى يتمكن المطورون من الوصول إلى واجهات برمجة التطبيقات والميزات القادمة قبل الباقي. تضيف الشركة الآن واجهتي برمجة تطبيقات جديدتين في ML Kit لمطورين محددين لمعاينتهم ومشاركة تعليقاتهم. تتضمن واجهات برمجة التطبيقات هذه:

  • استخراج الكيان لاكتشاف أشياء مثل أرقام الهواتف والعناوين وأرقام الدفع وأرقام التتبع والتاريخ والوقت في النص، و
  • كشف الوضع للكشف عن الكمون المنخفض لـ 33 نقطة هيكلية، بما في ذلك اليدين والقدمين

وأخيرًا، تسمح Google الآن للمطورين باستبدال تصنيف الصور الحالي بالإضافة إلى واجهات برمجة التطبيقات لاكتشاف الكائنات وتتبعها من ML Kit بنماذج تعلم الآلة المخصصة من TensorFlow لايت. ستعلن الشركة قريبًا عن مزيد من التفاصيل حول كيفية العثور على نماذج TensorFlow Lite أو استنساخها وتدريبها باستخدام ML Kit أو ميزات تكامل ML الجديدة في Android Studio.