Google I/O 2021에서 Google은 Android 기기 전반에서 개발자를 위해 기계 학습을 더 빠르고 일관되게 만드는 방법에 대해 설명했습니다.
어제의 주요 프레젠테이션에 이어 구글 I/O 2021, 회사는 현재 YouTube를 통해 주문형으로 제공되는 여러 세션을 개최했습니다. 세션 중 하나에서는 Android용 기계 학습의 새로운 기능과 Google이 개발자를 위해 이를 더 빠르고 일관되게 만드는 방법을 다루었습니다.
머신러닝은 이미지의 배경 흐림, 화상 통화 앱의 배경 교체, Android 소유자가 매일 사용하는 기능을 강화하는 역할을 담당합니다. 통화 중 실시간 캡션 Pixel 휴대전화에서 기계 학습이 점점 더 발전하고 있지만 Google은 앱 팽창 및 성능 변화에 대한 우려를 포함하여 ML 기반 기능을 배포하는 데 여전히 몇 가지 과제가 있다고 말했습니다. 모든 장치가 동일한 API 또는 API 버전에 액세스할 수 있는 것은 아니기 때문에 기능 가용성 문제도 있습니다.
이미지: 구글
이 문제를 해결하기 위해 Google은 Android의 업데이트 가능하고 완전히 통합된 ML 추론 스택을 발표하여 모든 기기에서 함께 작동하는 공통 구성 요소 집합이 있게 됩니다. 이는 앱 개발자에게 다음과 같은 이점을 제공합니다.
- 개발자는 더 이상 자체 앱에서 온디바이스 추론을 위한 코드를 번들로 묶을 필요가 없습니다.
- 기계 학습 API는 Android와 더욱 긴밀하게 통합되어 가능한 경우 더 나은 성능을 제공합니다.
- Google은 Android 버전 및 업데이트 전반에 걸쳐 일관된 API를 제공할 수 있습니다. API에 대한 정기 업데이트는 Google에서 직접 제공되며 OS 업데이트와 별도로 존재합니다.
이미지: 구글
이를 위해 Google은 몇 가지 작업을 수행하고 있습니다. 첫째, 이렇게 말했다. Android용 TensorFlow Lite Google Play 서비스를 통해 모든 Android 기기에 사전 설치되므로 개발자는 더 이상 자신의 앱과 함께 번들로 묶을 필요가 없습니다. Google은 또한 하드웨어 가속에 사용할 수 있는 Android 호환 GPU의 내장 허용 목록을 추가하고 있습니다. 검색 대기업은 개발자의 머신러닝을 활용하는 '자동 가속'도 도입합니다. 모델을 고려하여 모델이 CPU, GPU 또는 기타에서 더 나은 가속으로 작동하는지 확인할 수 있습니다. 가속기.
이미지: 구글
다음으로 Google은 NNAPI를 핵심 OS 프레임워크에서 분리하여 Google Play 서비스를 통해 업데이트할 수 있다고 밝혔습니다. 이는 두 장치가 서로 다른 Android 버전을 실행하는 경우에도 개발자가 동일한 NNAPI 사양을 사용할 수 있음을 의미합니다. 특히, NNAPI 런타임 으로 추가되었습니다. 메인라인 모듈 Android 11에서는 이러한 업데이트가 제공되는 방식일 수 있습니다. Google은 Qualcomm과 협력하여 Android 12를 실행하는 기기에서 업데이트 가능한 NNAPI 드라이버를 사용할 수 있도록 하고 있으며, 새로운 기능은 칩셋의 상용 수명 동안 백포트될 것입니다. 게다가 업데이트 정기적으로 배송됩니다 또한 이전 Snapdragon 프로세서와도 역호환됩니다.
머신러닝 개선은 Google이 이번 주에 발표한 내용의 아주 작은 부분에 불과합니다. 검색 대기업은 다음과 같은 대대적인 재설계를 발표했습니다. 안드로이드 12 또한 삼성과의 협력에 대한 첫 번째 세부 사항을 공유했습니다. 개선된 Wear OS.
\r\n https://www.youtube.com/watch? v=uTCQ8rAdPGE\r\n