Η Google αποσυνδέει τα API του ML Kit στη συσκευή από το Firebase

click fraud protection

Η Google διαχώρισε τα API μηχανικής εκμάθησης στη συσκευή στο ML Kit από το Firebase και ανακοίνωσε ένα νέο πρόγραμμα Early Access για τη δοκιμή επερχόμενων API.

Η Google χρησιμοποιεί εκτενώς την τεχνητή νοημοσύνη για να παρέχει εξαιρετικά συμφραζόμενα και ακριβή αποτελέσματα αναζήτησης ιστού και εικόνων. Εκτός από την Αναζήτηση στην πλατφόρμα Ιστού, τα μοντέλα μηχανικής εκμάθησης της Google παρέχουν επίσης μια ποικιλία εφαρμογών τεχνητής νοημοσύνης σε τηλέφωνα Android, από την οπτική αναζήτηση έως Google Lens προς την υπολογιστική φωτογραφία για το οποίο φημίζονται οι συσκευές Pixel. Εκτός από τις δικές της εφαρμογές, η Google επιτρέπει επίσης σε τρίτους προγραμματιστές να ενσωματώνουν λειτουργίες μηχανικής εκμάθησης στις εφαρμογές τους χωρίς προβλήματα με τη βοήθεια του ML Kit, ενός SDK (Software Development Kit) που αποτελεί μέρος του Firebase – του διαδικτυακού πίνακα ελέγχου διαχείρισης και ανάλυσης για κινητά ανάπτυξη. Από σήμερα, η Google ανακοινώνει μια σημαντική αλλαγή στο ML Kit και θα κάνει τα API στη συσκευή ανεξάρτητα από το Firebase.

Το ML Kit ανακοινώθηκε στο Google I/O 2018 για να απλοποιήσει την προσθήκη λειτουργιών μηχανικής εκμάθησης σε εφαρμογές. Κατά τη στιγμή της κυκλοφορίας του, το ML Kit αποτελούνταν από αναγνώριση κειμένου, ανίχνευση προσώπου, σάρωση γραμμωτού κώδικα, επισήμανση εικόνων και API αναγνώρισης ορόσημων. Σε Τον Απρίλιο του 2019, η Google παρουσίασε τα πρώτα της API επεξεργασίας φυσικής γλώσσας (NLP) στο SDK για προγραμματιστές με τη μορφή Έξυπνης απάντησης και γλώσσας Ταυτοποίηση. Ένα μήνα αργότερα, δηλαδή στο Google I/O 2019, Η Google παρουσίασε τρία νέα ML API για μετάφραση στη συσκευή, ανίχνευση και παρακολούθηση αντικειμένων και το AutoML Vision Edge API για τον προσδιορισμό συγκεκριμένων αντικειμένων όπως είδη λουλουδιών ή φαγητού χρησιμοποιώντας οπτική αναζήτηση.

Το ML Kit περιλαμβάνει API τόσο στη συσκευή όσο και σε σύννεφο. Όπως θα περίμενε κανείς, τα API της συσκευής επεξεργάζονται δεδομένα χρησιμοποιώντας τα μοντέλα μηχανικής εκμάθησης που είναι αποθηκευμένα στη συσκευή ενώ τα API που βασίζονται σε σύννεφο στέλνουν δεδομένα σε μοντέλα μηχανικής εκμάθησης που φιλοξενούνται στην πλατφόρμα Cloud της Google και λαμβάνουν τα επιλυμένα δεδομένα μέσω Διαδικτύου σύνδεση. Δεδομένου ότι τα API στη συσκευή εκτελούνται χωρίς το Διαδίκτυο, μπορούν να αναλύουν τις πληροφορίες πιο γρήγορα και είναι πιο ασφαλή από τα αντίστοιχα που βασίζονται σε σύννεφο. Τα API μηχανικής εκμάθησης στη συσκευή μπορούν επίσης να επιταχυνθούν μέσω υλικού σε συσκευές Android με έκδοση Android Oreo 8.1 και νεότερη έκδοση και εξάλειψη του API νευρωνικών δικτύων της Google (NNAPI) μαζί με ειδικά μπλοκ υπολογιστών ή NPU που βρέθηκαν στα πιο πρόσφατα chipset από Qualcomm, MediaTek, HiSilicon κ.λπ.

Η Google δημοσίευσε πρόσφατα ένα ανάρτηση ανακοινώνοντας ότι τα API στη συσκευή από το ML Kit θα είναι πλέον διαθέσιμα ως μέρος ενός ανεξάρτητου SDK. Αυτό σημαίνει API στη συσκευή στο ML Kit – συμπεριλαμβανομένης της αναγνώρισης κειμένου, της σάρωσης γραμμωτού κώδικα, της ανίχνευσης προσώπου, της επισήμανσης εικόνων, της ανίχνευσης αντικειμένων και παρακολούθηση, αναγνώριση γλώσσας, έξυπνη απάντηση και μετάφραση στη συσκευή – θα είναι διαθέσιμα σε ξεχωριστό SDK στο οποίο θα μπορείτε να έχετε πρόσβαση χωρίς Firebase. Η Google, ωστόσο, συνιστά τη χρήση του ML Kit SDK στο Firebase μεταναστεύουν τα υπάρχοντα έργα τους στο νέο αυτόνομο SDK. Ενα νέο μικροτόπος έχει κυκλοφορήσει με όλους τους πόρους που σχετίζονται με το ML Kit.

Εκτός από το νέο SDK, η Google ανακοίνωσε ορισμένες αλλαγές που διευκολύνουν τους προγραμματιστές να ενσωματώσουν μοντέλα μηχανικής εκμάθησης στις εφαρμογές τους. Πρώτον, το μοντέλο ανίχνευσης προσώπου/περιγράμματος παρέχεται πλέον ως μέρος των Υπηρεσιών Google Play, ώστε οι προγραμματιστές να μην χρειάζεται να κλωνοποιούν το API και το μοντέλο ξεχωριστά για τις εφαρμογές τους. Αυτό επιτρέπει μικρότερο μέγεθος για το πακέτο της εφαρμογής και τη δυνατότητα επαναχρησιμοποίησης του μοντέλου σε άλλες εφαρμογές πιο απρόσκοπτα.

Δεύτερον, η Google πρόσθεσε Κύκλος ζωής Android Jetpack υποστήριξη σε όλα τα API. Αυτό θα βοηθήσει στη διαχείριση της χρήσης των API όταν μια εφαρμογή υποβάλλεται σε περιστροφή οθόνης ή κλείνει από τον χρήστη. Επιπλέον, διευκολύνει επίσης την εύκολη ενσωμάτωση του Βιβλιοθήκη CameraX Jetpack σε εφαρμογές που χρησιμοποιούν ML Kit.

Τρίτον, η Google ανακοίνωσε ένα πρόγραμμα έγκαιρης πρόσβασης ώστε οι προγραμματιστές να έχουν πρόσβαση σε επερχόμενα API και λειτουργίες πριν από τα υπόλοιπα. Η εταιρεία προσθέτει τώρα δύο νέα API στο ML Kit για επιλεγμένους προγραμματιστές να τα κάνουν προεπισκόπηση και να μοιραστούν τα σχόλιά τους. Αυτά τα API περιλαμβάνουν:

  • Εξαγωγή οντοτήτων για να εντοπίσετε πράγματα όπως αριθμούς τηλεφώνου, διευθύνσεις, αριθμούς πληρωμής, αριθμούς παρακολούθησης και ημερομηνία και ώρα σε κείμενο και
  • Ανίχνευση πόζας για ανίχνευση χαμηλής καθυστέρησης 33 σκελετικών σημείων, συμπεριλαμβανομένων των χεριών και των ποδιών

Τέλος, η Google επιτρέπει τώρα στους προγραμματιστές να αντικαταστήσουν τα υπάρχοντα API Ετικέτας εικόνας καθώς και τα API ανίχνευσης και παρακολούθησης αντικειμένων από το ML Kit με προσαρμοσμένα μοντέλα μηχανικής εκμάθησης από TensorFlow Lite. Η εταιρεία θα ανακοινώσει σύντομα περισσότερες λεπτομέρειες σχετικά με τον τρόπο εύρεσης ή κλωνοποίησης μοντέλων TensorFlow Lite και εκπαίδευσής τους χρησιμοποιώντας το ML Kit ή τις νέες δυνατότητες ενσωμάτωσης ML του Android Studio.