Google представя Entity Extraction, API за сегментиране на селфи в ML Kit

click fraud protection

Google представи два нови API към ML Kit: Entity Extraction и Selfie Segmentation. Прочетете, за да научите повече за тях!

Преди няколко години Google представи ML Kit за да улеснят разработчиците при внедряването на машинно обучение в техните приложения. Оттогава видяхме API за цифрово разпознаване на мастило, превод на устройството и разпознаване на лица. Сега Google добавя ново извличане на обект към ML Kit заедно с нова функция за сегментиране на селфи.

Google каза новият API за извличане на обекти ще позволи на разработчиците да откриват и намират обекти от необработен текст и да предприемат действия въз основа на тези обекти.

„API работи със статичен текст, а също и в реално време, докато потребителят въвежда“, каза Google. „Той поддържа 11 различни обекта и 15 различни езика (с още в бъдеще), за да позволи на разработчиците да направят всяко текстово взаимодействие по-богато изживяване за потребителя.“

Ето кои обекти се поддържат:

  • Адрес(350 трета улица, Кеймбридж)
  • Време за среща*(12.12.2020 г., утре в 15:00) (нека се срещнем утре в 18:00)
  • електронна поща([email protected])
  • Номер на полета*(LX37)
  • IBAN*(CH52 0483 0000 0000 0000 9)
  • ISBN*(978-1101904190)
  • Пари (включително валута)*($12, 25USD)
  • Разплащателна карта*(4111 1111 1111 1111)
  • Телефонен номер((555) 225-3556, 12345)
  • Номер за проследяване*(1Z204E380338943508)
  • URL адрес(www.google.bg, https://en.wikipedia.org/wiki/Platypus, seznam.cz)

Google каза, че тества API за извличане на обекти с TamTam, за да позволи на приложението да предоставя полезни предложения на потребителите по време на чат разговори. Когато даден адрес е на екрана, например, щракването върху него ще изведе меню за копиране на адреса, отваряне с друго приложение или получаване на упътвания до местоположението.

Анотаторите/моделите на невронните мрежи в API за извличане на обекти работят по следния начин: даден входен текст първо се разделя на думи (на базата на разделяне на интервали), след което всички възможни подпоследователности от думи на определена максимална дължина (15 думи в примера по-горе) се генерират и за всеки кандидат оценяващата невронна мрежа присвоява стойност (между 0 и 1) въз основа на това дали представлява валиден обект.

След това генерираните обекти, които се припокриват, се премахват, като се предпочитат тези с по-висок резултат пред конфликтните с по-нисък резултат. След това се използва втора невронна мрежа, за да се класифицира типът на обекта като телефонен номер, адрес или в някои случаи не-субект.

Google каза, че API за извличане на обекти на ML Kit се основава на технология, която захранва функцията Smart Linkify, въведена с Android 10.

В допълнение към текстово базираното извличане на обекти, Google обяви и нов API за сегментиране на селфита. Функцията ще позволи на разработчиците да отделят фона от сцената. Това ще позволи на потребителите да добавят страхотни ефекти към селфита или дори да се вмъкнат в по-добър фон. Google каза, че новият API е способен да произвежда страхотни резултати с ниска латентност както на Android, така и на iOS.

ML Kit SDK включва години от работата на Google върху машинното обучение в пакет Firebase, който разработчиците на мобилни приложения могат да използват, за да подобрят своите приложения. След представянето на ML Kit бяха разкрити редица API, които правят внедряването на функции, задвижвани от машинно обучение, в приложения много по-лесно за разработчиците. С Entity Extraction и Selfie Segmentation приложенията на бъдещето ще станат още по-добри.