Android の NNAPI が PyTorch によるハードウェア アクセラレーションをサポートするようになりました

click fraud protection

Android の Neural Networks API (NNAPI) は、Facebook の PyTorch フレームワークを使用したハードウェア アクセラレーションによる推論をサポートするようになりました。 続きを読んでください!

機械学習は、私たちが気づかないうちに、さまざまな形で私たちの現在を形作ってきました。 以前は不可能だったタスクも今では簡単に実行できるようになり、テクノロジーとその利点が生まれました。 国民全体がさらに広くアクセスできるようになる. その多くは、オンデバイスの機械学習と Google の Neural Networks API (NNAPI) によって可能になります。 Android チームの取り組みにより、さらに多くのユーザーが高速化されたニューラル ネットワークとその利点を体験できるようになります。 開発者が Facebook の PyTorch でハードウェア アクセラレーションによる推論を使用できるようにするプロトタイプ機能のサポートを発表 フレームワーク。

オンデバイス機械学習により、機械学習モデルをデバイス上でローカルに実行できます。 データをサーバーに送信する必要があるため、待ち時間の短縮、プライバシーの向上、およびセキュリティの向上が可能になります。 接続性。 Android Neural Networks API (NNAPI) は、Android デバイス上で機械学習のための計算集約的な操作を実行するために設計されています。 NNAPI は、GPU、DSP、NPU などの利用可能なハードウェア アクセラレータを活用するための単一セットの API を提供します。

NNAPI には、Android C API 経由で直接アクセスすることも、次のような上位レベルのフレームワーク経由でアクセスすることもできます。 TensorFlow Lite. そして今日の発表によると、 PyTorch モバイル は、NNAPI をサポートする新しいプロトタイプ機能を発表しました。これにより、開発者は PyTorch フレームワークでハードウェア アクセラレーションによる推論を使用できるようになります。 この初期リリースには、Android 10 以降でのよく知られた線形畳み込みモデルと多層パーセプトロン モデルのサポートが含まれています。 MobileNetV2 モデルを使用したパフォーマンス テストでは、シングル スレッド CPU と比較して最大 10 倍の高速化が示されています。 完全な安定版リリースに向けた開発の一環として、将来のアップデートには追加のサポートが含まれる予定です。 オペレーターとモデル アーキテクチャ (一般的なオブジェクト検出とインスタンス セグメンテーションであるマスク R-CNN を含む) モデル。

おそらく、PyTorch 上に構築された最もよく知られたソフトウェアは、Tesla の Autopilot ソフトウェアでしょう。 今日の発表は Autopilot に関する直接的なニュースではありませんが、次の利点を明らかにします。 高速化されたニューラル ネットワークを、その上に構築されたソフトウェアを使用する何百万もの Android ユーザーに提供します。 パイトーチ。