גוגל מנתקת את ממשקי ה-API במכשיר של ML Kit מ-Firebase

גוגל הפרידה ממשקי API של למידה מכונה במכשיר ב-ML Kit מ-Firebase והכריזה על תוכנית גישה מוקדמת חדשה לבדיקת ממשקי API קרובים.

גוגל משתמשת רבות בבינה מלאכותית כדי לשרת תוצאות חיפוש אינטרנט ותמונות בהקשריות ומדויקות ביותר. מלבד חיפוש בפלטפורמת האינטרנט, המודלים של למידה חישובית של גוגל מספקים גם מגוון יישומי בינה מלאכותית בטלפונים אנדרואיד, החל מהחיפוש החזותי ב- עדשת גוגל ל צילום חישובי שמכשירי Pixel מפורסמים בהם. מלבד האפליקציות שלה, גוגל גם מאפשרת למפתחי צד שלישי לשלב תכונות למידת מכונה באפליקציות שלהם בצורה חלקה עם בעזרת ML Kit, SDK (ערכת פיתוח תוכנה) המהווה חלק מ-Firebase - לוח המחוונים המקוון שלה לניהול וניתוח לנייד התפתחות. נכון להיום, גוגל מכריזה על שינוי משמעותי ב-ML Kit ותהפוך ממשקי API במכשיר לבלתי תלויים ב-Firebase.

ערכת ML הוכרזה ב-Google I/O 2018 כדי לפשט את הוספת תכונות למידת מכונה לאפליקציות. בזמן השקתו, ערכת ML כללה זיהוי טקסט, זיהוי פנים, סריקת ברקוד, תיוג תמונות וממשקי API לזיהוי ציוני דרך. ב באפריל 2019, גוגל הציגה את ממשקי ה-API הראשונים שלה לעיבוד שפה טבעית (NLP) ל-SDK עבור מפתחים בצורה של תשובה חכמה ושפה זיהוי. חודש לאחר מכן, כלומר ב-Google I/O 2019,

גוגל הציגה שלושה ממשקי API חדשים של ML לתרגום במכשיר, זיהוי ומעקב אחר אובייקטים, וה- AutoML Vision Edge API לזיהוי עצמים ספציפיים כמו סוגי פרחים או מזון באמצעות חיפוש חזותי.

ערכת ML כוללת ממשקי API במכשיר וגם מבוססי ענן. כפי שניתן לצפות, ממשקי ה-API במכשיר מעבדים נתונים באמצעות מודלים של למידת מכונה שנשמרו במכשיר עצמו בזמן שממשקי API מבוססי ענן שולחים נתונים למודלים של למידת מכונה המתארחים בפלטפורמת הענן של גוגל ומקבלים את הנתונים שנפתרו דרך האינטרנט חיבור. מכיוון שממשקי API במכשיר פועלים ללא אינטרנט, הם יכולים לנתח מידע מהר יותר והם מאובטחים יותר מאשר עמיתיהם מבוססי ענן. ניתן להאיץ חומרה ממשקי API של למידה מכונה במכשיר גם במכשירי אנדרואיד המריצים Android Oreo 8.1 ומעלה ולרוץ מהממשק ה-Neural Networks API (NNAPI) של גוגל יחד עם בלוקי מחשוב מיוחדים או NPUs שנמצאו בערכות השבבים האחרונות מ קוואלקום, MediaTek, HiSilicon וכו'.

גוגל פרסמה לאחרונה א פוסט בבלוג מכריזה כי ממשקי ה-API במכשיר מ-ML Kit יהיו זמינים כעת כחלק מ-SDK עצמאי. המשמעות היא ממשקי API במכשיר ב-ML Kit - כולל זיהוי טקסט, סריקת ברקוד, זיהוי פנים, תיוג תמונה, זיהוי אובייקטים ו מעקב, זיהוי שפה, תשובה חכמה ותרגום במכשיר - יהיו זמינים תחת SDK נפרד שניתן לגשת אליו ללא Firebase. Google, לעומת זאת, ממליצה להשתמש ב-ML Kit SDK ב-Firebase כדי להעביר את הפרויקטים הקיימים שלהם ל-SDK העצמאי החדש. חדש מיקרו-אתר הושק עם כל המשאבים הקשורים ל-ML Kit.

מלבד ה-SDK החדש, גוגל הכריזה על כמה שינויים המקלים על מפתחים לשלב מודלים של למידת מכונה באפליקציות שלהם. ראשית, מודל זיהוי הפנים/מתאר מסופק כעת כחלק משירותי Google Play כך שמפתחים לא יצטרכו לשכפל את ה-API ואת הדגם בנפרד עבור האפליקציות שלהם. זה מאפשר גודל קטן יותר לחבילת האפליקציה ויכולת לעשות שימוש חוזר במודל בתוך אפליקציות אחרות בצורה חלקה יותר.

שנית, גוגל הוסיפה מחזור החיים של Android Jetpack תמיכה בכל ממשקי ה-API. זה יעזור בניהול השימוש בממשקי ה-API כאשר אפליקציה עוברת סיבוב מסך או נסגרת על ידי המשתמש. בנוסף, זה גם מקל על שילוב קל של ספריית CameraX Jetpack באפליקציות המשתמשות ב-ML Kit.

שלישית, גוגל הכריזה על תוכנית גישה מוקדמת כך שמפתחים יוכלו לקבל גישה לממשקי API ותכונות עתידיים לפני השאר. החברה מוסיפה כעת שני ממשקי API חדשים ב-ML Kit עבור מפתחים נבחרים כדי להציג אותם בתצוגה מקדימה ולשתף את המשוב שלהם. ממשקי API אלה כוללים:

  • מיצוי ישויות כדי לזהות דברים כמו מספרי טלפון, כתובות, מספרי תשלום, מספרי מעקב ותאריך ושעה בטקסט, ו
  • זיהוי תנוחות לזיהוי עם אחזור נמוך של 33 נקודות שלד, כולל ידיים ורגליים

לבסוף, גוגל מאפשרת כעת למפתחים להחליף את תווי התמונות הקיימים כמו גם ממשקי API לזיהוי ומעקב אחר אובייקטים מ-ML Kit עם מודלים מותאמים אישית של למידת מכונה מבית TensorFlow Lite. החברה תכריז בקרוב על פרטים נוספים כיצד למצוא או לשכפל דגמי TensorFlow Lite ולהכשיר אותם באמצעות ML Kit או תכונות שילוב ה-ML החדשות של Android Studio.