Google представляє Entity Extraction, API Segmentation Selfie для ML Kit

click fraud protection

Google представив два нових API для ML Kit: Entity Extraction і Selfie Segmentation. Читайте далі, щоб дізнатися більше про них!

Кілька років тому Google представив ML Kit щоб полегшити розробникам впровадження машинного навчання у свої програми. Відтоді ми побачили API для розпізнавання цифрового рукописного тексту, перекладу на пристрої та виявлення обличчя. Тепер Google додає новий Entity Extraction до ML Kit разом із новою функцією сегментації Selfie.

Google сказав новий Entity Extraction API дозволить розробникам виявляти та знаходити сутності з необробленого тексту та вживати заходів на основі цих сутностей.

«API працює зі статичним текстом, а також у режимі реального часу, поки користувач набирає текст», — сказали в Google. «Він підтримує 11 різних об’єктів і 15 різних мов (у майбутньому з’явиться більше), щоб дозволити розробникам зробити будь-яку текстову взаємодію багатшою для користувача».

Ось які підтримуються сутності:

  • Адреса(350 третя вулиця, Кембридж)
  • Дата, час*(12.12.2020, завтра о 15.00) (зустрічаємось завтра о 18.00)
  • Електронна пошта([email protected])
  • Номер рейсу*(LX37)
  • IBAN*(CH52 0483 0000 0000 0000 9)
  • ISBN*(978-1101904190)
  • Гроші (включаючи валюту)*($12, 25USD)
  • Платіжна картка*(4111 1111 1111 1111)
  • Номер телефону((555) 225-3556, 12345)
  • Номер відстеження*(1Z204E380338943508)
  • URL(www.google.com, https://en.wikipedia.org/wiki/Platypus, seznam.cz)

Google заявив, що тестує Entity Extraction API з TamTam, щоб дозволити програмі надавати корисні пропозиції користувачам під час розмов у чаті. Наприклад, якщо адреса є на екрані, клацніть її, щоб відкрити меню, щоб скопіювати адресу, відкрити в іншій програмі або отримати маршрут до місця.

Анотатори/моделі нейронної мережі в Entity Extraction API працюють таким чином: даний вхідний текст спочатку розбивається на слова (на основі розділення пробілами), а потім усі можливі підпослідовності слів генерується певна максимальна довжина (15 слів у наведеному вище прикладі), і для кожного кандидата оцінювальна нейронна мережа призначає значення (від 0 до 1) на основі того, чи представляє він дійсну сутність.

Далі згенеровані сутності, які накладаються, видаляються, віддаючи перевагу тим, які мають вищий бал, а не конфліктуючим, які мають нижчий бал. Потім друга нейронна мережа використовується для класифікації типу сутності як номер телефону, адреса або, в деяких випадках, несутність.

У Google заявили, що API Entity Extraction від ML Kit базується на технології, яка стала основою функції Smart Linkify, представленої в Android 10.

Окрім вилучення об’єктів на основі тексту, Google також анонсувала новий API сегментації селфі. Ця функція дозволить розробникам відокремити фон від сцени. Це дозволить користувачам додавати круті ефекти до селфі або навіть вставляти себе на кращий фон. Google заявив, що новий API здатний давати чудові результати з низькою затримкою як на Android, так і на iOS.

ML Kit SDK об’єднує роки роботи Google над машинним навчанням у пакет Firebase, який розробники мобільних додатків можуть використовувати для вдосконалення своїх додатків. Відтоді, як було представлено ML Kit, було представлено низку API, які значно полегшують розробникам впровадження функцій машинного навчання в додатки. Завдяки Entity Extraction і Selfie Segmentation програми майбутнього стануть ще кращими.