Microsoft は、新しい Windows AI Studio を使用して Windows 上で AI アプリを開発しやすくし、AI モデルの選択と微調整を容易にします。
重要なポイント
- Microsoft は、開発者が Azure AI Studio と Hugging Face のツールとモデルを使用して AI の開発と展開を開始できるようにするツールキットである Windows AI Studio を発表しました。
- Windows AI Studio は、小規模言語モデルをカスタマイズするためのガイド付きセットアップ、組み込みテンプレートを使用した迅速なテスト、Olive を使用した ONNX モデルの変換と最適化などの機能を提供します。
- Windows AI Studio は、Windows 上で効率的な機械学習を実現するために DirectML と ONNX ランタイムを活用して、Windows GPU と NPU に最適化されたモデルを強調表示します。 これは、開発ワークフローにシームレスに統合するための VS Code 拡張機能として利用可能になります。
Microsoft は依然として AI への取り組みに全力を尽くしており、本日同社は、開発者が AI を組み込んだ独自のアプリやエクスペリエンスの作成を簡単に開始できる新しい方法を発表しました。 Windows AI Studio と呼ばれるこれは、AI の開発と展開を簡単に開始できるようにする開発者向けの新しいツールキットです。
まず、Windows AI Studio は、開発者がどこから始めるべきかを選択するのに役立ちます。 Azure AI Studio や Hugging Face などのツールやモデルを選択して提供します。 開発者は、一般的な小型言語モデル (SLM) から選択し、それらを微調整してカスタマイズできます。 ニーズ。 実際、このアプリには、Phi、Llama 2、Mistral などの SLM を簡単にカスタマイズできるようにするガイド付きセットアップ プロセスが含まれています。
さらに、Windows AI Studio は、組み込みのプロンプト フローと Gradio テンプレートを使用した迅速なテストも提供します。 ツールキットを使用すると、意図したとおりに動作しているかどうかをすぐに判断し、適切な動作になるまで継続的に微調整することができます。 準備ができて。 それが完了したら、ONNX モデル変換と Olive による最適化を通じてモデルを最適化し、最終的にモデルをアプリに統合できます。
Microsoft はまた、Windows AI Studio が、Llama2-7B、Mistral-7B、Stable Diffusion XL など、Windows GPU および NPU 向けに特に最適化されたモデルを紹介すると発表しました。 これらの最適化されたモデルは、Windows 機械学習 API である DirectML と ONNX ランタイムを最大限に活用し、Windows 上で可能な限り効率的に実行します。 同社は本日、Llama2-7B を使用したモデル例を共有しましたが、これはこの最適化で何が達成できるかについての初期段階にすぎません。
Windows AI Studio は VS Code 拡張機能として提供され、通常の開発ワークフローに統合され、開始が容易になります。
開発者向けのその他のニュースとして、Microsoft は Windows Subsystem for Linux のエンタープライズ向けの新しい機能を発表しました。 まず、WSL 用の Microsoft Defender for Endpoint プラグインが追加され、マシン上で実行されているすべてのディストリビューションのイベントを監視します。 さらに、Intune を通じて WSL および関連するセキュリティ設定へのアクセスを制御できるようになり、高度なネットワーク設定を使用して WSL 自体のファイアウォール ルールをカスタマイズできるようになりました。
最後に、Dev Home アプリのアップデートがバージョン 0.7 になり、Dev Home Azure 拡張機能を介した新しい Azure DevOps 統合が含まれます。 これにより、Azure リポジトリのクローンを作成してマシンのコーディングを準備することが容易になります。 プロジェクトの管理が容易になり、ウィジェットを固定してプロジェクトに関する情報を表示できます。 プロジェクト。