適用先
Windows 11 version 26H1, all editions Windows 11 version 25H2, all editions Windows 11 version 24H2, all editions

​​​​​​​この記事の内容

実行プロバイダーとは

実行プロバイダー AI コンポーネントは、機械学習モデルのハードウェア高速化実行を可能にするために Copilot+ PC で使用される Windows AI コンポーネントです。 これらのコンポーネントは、AI モデルと基になるコンピューティング エンジン (CPU、GPU、NPU など) の間のハードウェア抽象化レイヤーとして機能し、Windows とアプリケーションが最適なハードウェアで AI ワークロードを効率的に実行できるようにします。

実行プロバイダー (EP) は、ONNX ランタイムと統合して、AI 推論用のハードウェア固有の最適化を実現するモジュラー コンポーネントです。 実行プロバイダーは、ベンダー固有のアクセラレーション ライブラリの複雑さを抽象化しながら、グラフのパーティション分割、カーネルの選択、演算子の実行などのタスクを処理します。 この設計により、アプリケーション レベルの変更を必要とせずに、1 つの AI モデルをさまざまなハードウェア構成で実行できます。

Copilot+ PC では、実行プロバイダーの AI コンポーネントは、複数のハードウェア プラットフォームとシリコン ベンダーをサポートします。 たとえば、Intel、AMD、Qualcomm、NVIDIA ハードウェア用に最適化された実行プロバイダーなど、AI モデルが使用可能な場合は、NPU や GPU などの特殊なアクセラレータを利用できます。 特定のワークロードでハードウェア アクセラレーションがサポートされていない場合、実行は互換性のあるコンピューティング バックエンドに自動的にフォールバックし、信頼性と広範なデバイス互換性を確保します。

実行プロバイダー AI コンポーネントは、Windows AI プラットフォームの基本的な部分です。 これらは、ローカル AI 推論に依存する Windows 機能、Copilot+ エクスペリエンス、開発者アプリケーションで使用されます。 Windows では、実行プロバイダーを動的に選択して管理することで、待機時間の短いパフォーマンス、電力効率の向上、さまざまなデバイス構成での一貫した AI 動作を実現できます。

ページのトップへ

MIGraphX 実行プロバイダー

MIGraphX 実行プロバイダーは、サポートされている ONNX モデル操作を AMD GPU にオフロードすることで、ハードウェア高速化推論を提供するために ONNX ランタイム/Windows 機械学習 (ML) と共に使用される AMD 実行プロバイダー (EP) です。 これは AMD の MIGraphX グラフ推論エンジンに基づいており、機械学習モデルの推論を高速化し、AMD GPU ハードウェアで ONNX モデルを実行するときにハードウェア固有の最適化を可能にします。

ページのトップへ

NVIDIA TensorRT-RTX 実行プロバイダー

NVIDIA TensorRT-RTX 実行プロバイダーは、クライアント中心 (エンド ユーザー PC) シナリオ向けに NVIDIA RTX GPU での ONNX モデル推論を高速化するために特別に設計された ONNX ランタイム/Windows ML 実行プロバイダー (EP) です。 NVIDIA の TensorRT for RTX ランタイムを利用して、ローカル GPU で RTX 最適化推論エンジンを生成して実行し、Windows とアプリが RTX ハードウェア アクセラレーションを利用できるようにします。

ページのトップへ

Intel OpenVINO 実行プロバイダー

Intel OpenVINO 実行プロバイダーは、ONNX ランタイム/Windows ML で使用される実行プロバイダー (EP) で、Intel プラットフォームでハードウェア高速化推論を有効にします。 これにより、Intel CPU、GPU、および NPU 上の ONNX モデルが高速化され、Windows とアプリケーションは、機械学習ワークロードに対する Intel ハードウェアの最適化を利用できます。

ページのトップへ

Qualcomm QNN 実行プロバイダー

Qualcomm QNN 実行プロバイダーは、ONNX ランタイム (および ONNX ランタイムを使用する Windows ML シナリオ) 用の実行プロバイダー (EP) であり、Qualcomm チップセットでのハードウェア高速化実行を可能にします。 Qualcomm AI Engine Direct SDK (QNN SDK) を使用して ONNX モデルから QNN グラフを作成し、サポートされているアクセラレータ バックエンド ライブラリによって実行します。

ページのトップへ

AMD Vitis AI 実行プロバイダー

AMD Vitis AI 実行プロバイダーは、ONNX ランタイム/Windows ML で使用される実行プロバイダーであり、AMD プラットフォームでハードウェアによる AI 推論を可能にします。 Microsoft の公開文言では、Vitis AI はハードウェア高速化 AI 推論用の AMD の開発スタックであり、Ryzen AI、AMD Adaptable SoC、Alveo Data Center Acceleration Cards などの AMD プラットフォームを対象としています。

ページのトップへ

ヘルプを表示

その他のオプションが必要ですか?

サブスクリプションの特典の参照、トレーニング コースの閲覧、デバイスのセキュリティ保護方法などについて説明します。