Google делает машинное обучение более быстрым и последовательным на Android

На конференции Google I/O 2021 компания Google рассказала о том, как она делает машинное обучение более быстрым и последовательным для разработчиков на устройствах Android.

После вчерашней основной презентации на Google I/O 2021компания провела несколько сессий, которые теперь доступны по запросу на YouTube. На одной из сессий обсуждались новые возможности машинного обучения для Android и то, как Google делает его более быстрым и последовательным для разработчиков.

Машинное обучение отвечает за работу функций, которые владельцы Android используют каждый день, от размытия фона на изображениях до замены фона в приложениях для видеовызовов и т. д. живые субтитры во время звонков на телефонах Pixel. Несмотря на то, что машинное обучение становится все более продвинутым, в Google заявили, что все еще существует ряд проблем при развертывании функций машинного обучения, в том числе проблемы с раздуванием приложений и колебаниями производительности. Существуют также проблемы с доступностью функций, поскольку не каждое устройство имеет доступ к одним и тем же API или версиям API.

Изображение: Google

Чтобы решить эту проблему, Google анонсирует обновляемый, полностью интегрированный стек вывода машинного обучения для Android, поэтому на всех устройствах будет набор общих компонентов, которые просто будут работать вместе. Это дает разработчикам приложений следующие преимущества:

  • Разработчикам больше не нужно объединять код для вывода на устройстве в собственное приложение.
  • API-интерфейсы машинного обучения более тесно интегрированы с Android, что обеспечивает более высокую производительность там, где это возможно.
  • Google может предоставить единый API для всех версий и обновлений Android. Регулярные обновления API поступают напрямую от Google и существуют независимо от обновлений ОС.

Изображение: Google

Чтобы это произошло, Google делает несколько вещей. Во-первых, там говорилось, что TensorFlow Lite для Android будет предустановлен на все устройства Android через сервисы Google Play, поэтому разработчикам больше не придется связывать его со своими собственными приложениями. Google также добавляет встроенный список совместимых графических процессоров на Android, которые можно использовать для аппаратного ускорения. Поисковый гигант также внедряет «автоматическое ускорение», требующее от разработчика машинного обучения. модель во внимание и может проверить, работает ли модель лучше с ускорением на процессоре, графическом процессоре или другом ускорители.

Изображение: Google

Далее Google также заявила, что выводит NNAPI из базовой структуры ОС, чтобы его можно было обновлять через сервисы Google Play. Это означает, что разработчики могут использовать одну и ту же спецификацию NNAPI, даже если на двух устройствах работают разные версии Android. Примечательно, что среда выполнения ННАПИ был добавлен как Магистральный модуль в Android 11, возможно, именно так и доставляются эти обновления. Google работает с Qualcomm над тем, чтобы сделать обновляемые драйверы NNAPI доступными на устройствах под управлением Android 12, а новые функции будут портированы на протяжении всего коммерческого срока службы чипсета. Кроме того, обновления будут регулярно доставляться а также будет обратно совместим со старыми процессорами Snapdragon.

Улучшения в машинном обучении — лишь малая часть того, что Google объявил на этой неделе. Поисковый гигант представил масштабный редизайн Андроид 12 а также поделилась первыми подробностями о сотрудничестве с Samsung обновленная ОС Wear.

\r\n https://www.youtube.com/watch? v=uTCQ8rAdPGE\r\n