Google-მა გამოყო მოწყობილობაზე მანქანური სწავლების API-ები ML Kit-ში Firebase-სგან და გამოაცხადა ადრეული წვდომის ახალი პროგრამა მომავალი API-ების შესამოწმებლად.
Google ფართოდ იყენებს ხელოვნურ ინტელექტს ვებ და სურათების ძიების უაღრესად კონტექსტური და ზუსტი შედეგებისთვის. ვებ პლატფორმაზე ძიების გარდა, Google-ის მანქანათმცოდნეობის მოდელები ასევე ითვალისწინებს მრავალფეროვან AI აპლიკაციებს Android ტელეფონებზე, ვიზუალური ძიებიდან დაწყებული Google Lens რომ გამოთვლითი ფოტოგრაფია რომლითაც ცნობილია Pixel მოწყობილობები. საკუთარი აპლიკაციების გარდა, Google ასევე საშუალებას აძლევს მესამე მხარის დეველოპერებს, შეუფერხებლად დააკავშირონ მანქანათმცოდნეობის ფუნქციები თავიანთ აპებში. ML Kit-ის დახმარებით, SDK (პროგრამული უზრუნველყოფის განვითარების ნაკრები), რომელიც Firebase-ის ნაწილია – მისი ონლაინ მართვისა და ანალიტიკის დაფა მობილურისთვის განვითარება. დღეის მდგომარეობით, Google აცხადებს ML Kit-ში მნიშვნელოვან ცვლილებას და მოწყობილობაზე API-ებს Firebase-სგან დამოუკიდებლად გახდის.
ML Kit გამოცხადდა Google I/O 2018-ზე
აპებში მანქანური სწავლების ფუნქციების დამატების გასამარტივებლად. გაშვების დროს ML Kit შედგებოდა ტექსტის ამოცნობის, სახის ამოცნობის, შტრიხკოდების სკანირების, გამოსახულების მარკირებისა და საეტაპო ამოცნობის API-ებისგან. In 2019 წლის აპრილში, Google-მა წარადგინა თავისი პირველი ბუნებრივი ენის დამუშავების (NLP) API SDK-ში დეველოპერებისთვის ჭკვიანი პასუხისა და ენის სახით. იდენტიფიკაცია. ერთი თვის შემდეგ, ანუ Google I/O 2019-ზე, Google-მა წარადგინა სამი ახალი ML API მოწყობილობაზე თარგმნისთვის, ობიექტების აღმოჩენისა და თვალყურის დევნებისთვის და AutoML Vision Edge API კონკრეტული ობიექტების იდენტიფიცირებისთვის, როგორიცაა ყვავილების ტიპები ან საკვები ვიზუალური ძიების გამოყენებით.ML Kit მოიცავს როგორც მოწყობილობაზე, ასევე ღრუბელზე დაფუძნებულ API-ებს. როგორც თქვენ მოელოდით, მოწყობილობაზე API ამუშავებს მონაცემებს მოწყობილობაში შენახული მანქანური სწავლების მოდელების გამოყენებით თავად ღრუბელზე დაფუძნებული API-ები აგზავნიან მონაცემებს მანქანური სწავლების მოდელებზე, რომლებიც განთავსებულია Google-ის ღრუბლოვან პლატფორმაზე და იღებენ გადაწყვეტილ მონაცემებს ინტერნეტით კავშირი. იმის გამო, რომ მოწყობილობაზე API მუშაობს ინტერნეტის გარეშე, მათ შეუძლიათ ინფორმაციის უფრო სწრაფად გაანალიზება და უფრო დაცულები, ვიდრე ღრუბელზე დაფუძნებული კოლეგები. მოწყობილობაზე მანქანური სწავლების API-ები ასევე შეიძლება იყოს ტექნიკის დაჩქარება Android მოწყობილობებზე, რომლებსაც აქვთ Android Oreo 8.1 და ზემოთ. და გაქრება Google-ის ნერვული ქსელების API (NNAPI) და სპეციალური გამოთვლითი ბლოკები ან NPU-ები, რომლებიც ნაპოვნია უახლეს ჩიპსეტებზე საწყისი Qualcomm, MediaTek, HiSilicon და ა.შ.
Google-მა ცოტა ხნის წინ გამოაქვეყნა ა ბლოგის პოსტი გამოაცხადა, რომ მოწყობილობაზე API-ები ML Kit-დან ახლა ხელმისაწვდომი იქნება როგორც დამოუკიდებელი SDK-ის ნაწილი. ეს ნიშნავს მოწყობილობაზე არსებულ API-ებს ML Kit-ში – მათ შორის ტექსტის ამოცნობა, შტრიხკოდების სკანირება, სახის ამოცნობა, გამოსახულების მარკირება, ობიექტების ამოცნობა და თვალყურის დევნება, ენის იდენტიფიკაცია, ჭკვიანი პასუხი და მოწყობილობაზე თარგმნა – ხელმისაწვდომი იქნება ცალკე SDK-ით, რომლის გარეშეც წვდომა იქნება შესაძლებელი Firebase. თუმცა, Google გირჩევთ გამოიყენოთ ML Kit SDK Firebase-ში მათი არსებული პროექტების მიგრაცია ახალ დამოუკიდებელ SDK-ზე. ახალი მიკროსაიტი ამოქმედდა ML Kit-თან დაკავშირებული ყველა რესურსით.
ახალი SDK-ის გარდა, Google-მა გამოაცხადა გარკვეული ცვლილებები, რაც დეველოპერებს გაუადვილებს მანქანური სწავლების მოდელების აპებში ინტეგრირებას. უპირველეს ყოვლისა, სახის ამოცნობის/კონტურის მოდელი ახლა მიწოდებულია როგორც Google Play Services-ის ნაწილი, ასე რომ, დეველოპერებს არ მოუწევთ API-ისა და მოდელის ცალკე კლონირება თავიანთი აპებისთვის. ეს საშუალებას აძლევს აპის პაკეტის უფრო მცირე ზომას და სხვა აპებში მოდელის უფრო შეუფერხებლად გამოყენების შესაძლებლობას.
მეორეც, Google-მა დაამატა Android Jetpack სასიცოცხლო ციკლი ყველა API-ის მხარდაჭერა. ეს დაგეხმარებათ API-ების გამოყენების მართვაში, როდესაც აპლიკაცია გადის ეკრანის როტაციას ან დახურულია მომხმარებლის მიერ. გარდა ამისა, ეს ასევე ხელს უწყობს მარტივი ინტეგრაციას CameraX Jetpack ბიბლიოთეკა აპებში, რომლებიც იყენებენ ML Kit-ს.
მესამე, Google-მა გამოაცხადა ადრეული წვდომის პროგრამა რათა დეველოპერებმა შეძლონ წვდომა მომავალ API-ებზე და ფუნქციებზე დანარჩენზე ადრე. კომპანია ახლა ამატებს ორ ახალ API-ს ML Kit-ში შერჩეული დეველოპერებისთვის, რათა გადახედონ მათ და გაუზიარონ თავიანთი გამოხმაურება. ეს API მოიცავს:
- ერთეულის ექსტრაქცია ისეთი ნივთების ამოცნობა, როგორიცაა ტელეფონის ნომრები, მისამართები, გადახდის ნომრები, თვალთვალის ნომრები და თარიღი და დრო ტექსტში და
- პოზის გამოვლენა 33 ჩონჩხის წერტილის დაბალი ლატენტური გამოვლენისთვის, ხელებისა და ფეხების ჩათვლით
დაბოლოს, Google ახლა აძლევს დეველოპერებს უფლებას შეცვალონ არსებული სურათის მარკირება, ასევე ობიექტების ამოცნობისა და თვალთვალის API-ები ML Kit-იდან მანქანური სწავლების მორგებული მოდელებით. TensorFlow Lite. კომპანია მალე გამოაცხადებს დამატებით დეტალებს იმის შესახებ, თუ როგორ მოიძიოთ ან დააკლონ TensorFlow Lite მოდელები და მოამზადოთ ისინი ML Kit-ის ან Android Studio-ს ახალი ML ინტეგრაციის ფუნქციების გამოყენებით.