Google wprowadza do ML Kit interfejsy API do wyodrębniania jednostek i segmentacji selfie

Google wprowadził do ML Kit dwa nowe interfejsy API: Entity Extraction i Selfie Segmentation. Czytaj dalej, aby dowiedzieć się o nich więcej!

Kilka lat temu Google wprowadził zestaw ML aby ułatwić programistom wdrażanie uczenia maszynowego w swoich aplikacjach. Od tego czasu pojawiły się interfejsy API do rozpoznawania pisma cyfrowego, tłumaczenia na urządzeniu i wykrywania twarzy. Teraz Google dodaje nową funkcję wyodrębniania jednostek do ML Kit wraz z nową funkcją segmentacji selfie.

Google powiedział nowy interfejs API do wyodrębniania jednostek umożliwi programistom wykrywanie i lokalizowanie jednostek na podstawie nieprzetworzonego tekstu oraz podejmowanie działań w oparciu o te jednostki.

„API działa na tekście statycznym, a także w czasie rzeczywistym, gdy użytkownik pisze” – twierdzi Google. „Obsługuje 11 różnych elementów i 15 różnych języków (a więcej będzie dostępnych w przyszłości), aby umożliwić programistom uczynienie dowolnej interakcji tekstowej bogatszą dla użytkownika”.

Oto obsługiwane podmioty:

  • Adres(350 Third Street, Cambridge)
  • Data i godzina*(12.12.2020, jutro o 15:00) (spotykamy się jutro o 18:00)
  • E-mail([email protected])
  • Numer lotu*(LX37)
  • IBAN*(CH52 0483 0000 0000 0000 9)
  • ISBN*(978-1101904190)
  • Pieniądze (w tym waluta)*(12 USD, 25 USD)
  • Karta płatnicza*(4111 1111 1111 1111)
  • Numer telefonu((555) 225-3556, 12345)
  • Numer przesyłki*(1Z204E380338943508)
  • Adres URL(www.google.com, https://en.wikipedia.org/wiki/Platypus, seznam.cz)

Google poinformowało, że testuje interfejs API Entity Extraction za pomocą TamTam, aby umożliwić aplikacji dostarczanie użytkownikom przydatnych sugestii podczas rozmów na czacie. Na przykład, gdy adres znajduje się na ekranie, kliknięcie go spowoduje wyświetlenie menu umożliwiającego skopiowanie adresu, otwarcie go w innej aplikacji lub uzyskanie wskazówek dojazdu do danej lokalizacji.

Adnotatory/modele sieci neuronowej w interfejsie API Entity Extraction działają w następujący sposób: dany tekst wejściowy jest najpierw dzielony na słowa (w oparciu o separację spacji), a następnie wszystkie możliwe podsekwencje słów Generowana jest określona maksymalna długość (15 słów w powyższym przykładzie), a każdemu kandydatowi oceniana sieć neuronowa przypisuje wartość (od 0 do 1) na podstawie tego, czy reprezentuje on prawidłową jednostkę.

Następnie usuwane są wygenerowane elementy, które nakładają się na siebie, faworyzując te z wyższym wynikiem w stosunku do sprzecznych z niższym wynikiem. Następnie używana jest druga sieć neuronowa do klasyfikowania typu podmiotu jako numeru telefonu, adresu lub, w niektórych przypadkach, niebędącego podmiotem.

Google twierdzi, że interfejs API Entity Extraction API ML Kit opiera się na technologii, która obsługiwała funkcję Smart Linkify wprowadzoną w systemie Android 10.

Oprócz tekstowej ekstrakcji jednostek, Google ogłosił także nowy interfejs API segmentacji selfie. Ta funkcja umożliwi programistom oddzielenie tła od sceny. Umożliwi to użytkownikom dodawanie fajnych efektów do selfie, a nawet wstawianie się w lepsze tło. Google twierdzi, że nowy interfejs API jest w stanie zapewnić doskonałe wyniki przy niskim opóźnieniu zarówno na Androidzie, jak i iOS.

Zestaw SDK ML Kit łączy lata pracy Google nad uczeniem maszynowym w pakiecie Firebase, którego twórcy aplikacji mobilnych mogą używać do ulepszania swoich aplikacji. Od czasu wprowadzenia ML Kit zaprezentowano szereg interfejsów API, które znacznie ułatwiają programistom wdrażanie w aplikacjach funkcji opartych na uczeniu maszynowym. Dzięki wyodrębnianiu jednostek i segmentacji selfie aplikacje przyszłości będą jeszcze lepsze.