Google, Firebase에서 ML Kit의 온디바이스 API 분리

Google은 ML Kit의 기기 내 기계 학습 API를 Firebase에서 분리하고 향후 API 테스트를 위한 새로운 조기 액세스 프로그램을 발표했습니다.

Google은 상황에 맞는 정확한 웹 및 이미지 검색결과를 제공하기 위해 인공지능을 광범위하게 사용합니다. 웹 플랫폼 검색 외에도 Google의 기계 학습 모델은 Android 휴대폰에서 시각적 검색에 이르기까지 다양한 AI 애플리케이션을 제공합니다. 구글 렌즈 에게 컴퓨터 사진 Pixel 기기가 유명한 이유입니다. Google은 자체 애플리케이션 외에도 타사 개발자가 기계 학습 기능을 앱에 원활하게 통합할 수 있도록 허용합니다. Firebase의 일부인 SDK(소프트웨어 개발 키트)인 ML Kit의 도움 - 모바일용 온라인 관리 및 분석 대시보드 개발. 오늘부터 Google은 ML Kit에 대한 주요 변경 사항을 발표하고 기기 내 API를 Firebase와 독립적으로 만들 예정입니다.

ML Kit가 Google I/O 2018에서 발표되었습니다. 앱에 기계 학습 기능을 추가하는 것을 단순화합니다. 출시 당시 ML Kit는 텍스트 인식, 얼굴 인식, 바코드 스캐닝, 이미지 라벨링, 랜드마크 인식 API로 구성되었습니다. ~ 안에 2019년 4월, Google은 개발자를 위한 SDK에 Smart Reply 및 Language 형태의 최초의 자연어 처리(NLP) API를 도입했습니다. 신분증. 한 달 후, 즉 Google I/O 2019에서 Google은 세 가지 새로운 ML API를 도입했습니다. 기기 내 번역, 객체 감지 및 추적, AutoML Vision Edge API 시각적 검색을 사용하여 꽃이나 음식 종류와 같은 특정 개체를 식별합니다.

ML Kit는 온디바이스 API와 클라우드 기반 API로 구성됩니다. 예상한 대로 온디바이스 API는 디바이스에 저장된 기계 학습 모델을 사용하여 데이터를 처리합니다. 클라우드 기반 API는 Google Cloud Platform에서 호스팅되는 기계 학습 모델에 데이터를 보내고 인터넷을 통해 해결된 데이터를 받습니다. 연결. 온디바이스 API는 인터넷 없이 실행되므로 클라우드 기반 API보다 정보를 더 빠르게 구문 분석하고 더 안전합니다. 온디바이스 머신 러닝 API는 Android Oreo 8.1 이상을 실행하는 Android 디바이스에서 하드웨어 가속될 수도 있습니다. 최신 칩셋에 있는 특수 컴퓨팅 블록 또는 NPU와 함께 Google의 신경망 API(NNAPI)를 실행합니다. ~에서

퀄컴, MediaTek, HiSilicon 등

구글은 최근에 블로그 게시물 ML Kit의 온디바이스 API가 이제 독립 SDK의 일부로 제공될 예정임을 발표했습니다. 이는 텍스트 인식, 바코드 스캐닝, 얼굴 감지, 이미지 라벨링, 객체 감지 및 추적, 언어 식별, 스마트 답장, 온디바이스 번역 등은 별도의 SDK를 통해 이용 가능하며, 별도의 SDK 없이도 이용 가능합니다. 중포 기지. 그러나 Google은 Firebase에서 ML Kit SDK를 사용하여 다음을 수행할 것을 권장합니다. 기존 프로젝트 마이그레이션 새로운 독립형 SDK로. 새로운 마이크로사이트 ML Kit와 관련된 모든 리소스가 포함되어 출시되었습니다.

새로운 SDK 외에도 Google은 개발자가 기계 학습 모델을 앱에 더 쉽게 통합할 수 있도록 몇 가지 변경 사항을 발표했습니다. 첫째, 이제 얼굴 감지/윤곽 모델이 Google Play 서비스의 일부로 제공되므로 개발자는 앱에 대해 API와 모델을 별도로 복제할 필요가 없습니다. 이를 통해 앱 패키지의 크기를 줄이고 다른 앱 내에서 모델을 보다 원활하게 재사용할 수 있습니다.

둘째, Google이 추가했습니다. Android Jetpack 수명주기 모든 API를 지원합니다. 이는 앱이 화면 회전 중이거나 사용자가 닫을 때 API 사용을 관리하는 데 도움이 됩니다. 게다가, 이는 또한 쉽게 통합을 촉진합니다. CameraX Jetpack 라이브러리 ML Kit를 사용하는 앱에서.

셋째, 구글이 발표한 조기 액세스 프로그램 개발자가 나머지 API와 기능에 먼저 액세스할 수 있도록 합니다. 이제 회사는 일부 개발자가 미리 보고 피드백을 공유할 수 있도록 ML Kit에 두 개의 새로운 API를 추가하고 있습니다. 이러한 API에는 다음이 포함됩니다.

  • 엔터티 추출 전화번호, 주소, 결제 번호, 추적 번호, 텍스트의 날짜 및 시간 등을 감지합니다.
  • 포즈 감지 손과 발을 포함한 33개 골격 지점의 저지연 감지용

마지막으로 Google은 이제 개발자가 ML Kit의 기존 이미지 라벨링과 객체 감지 및 추적 API를 맞춤형 기계 학습 모델로 교체할 수 있도록 허용합니다. 텐서플로우 라이트. 회사에서는 TensorFlow Lite 모델을 찾거나 복제하고 ML Kit 또는 Android Studio의 새로운 ML 통합 기능을 사용하여 학습시키는 방법에 대한 자세한 내용을 곧 발표할 예정입니다.