Applies To
Windows 11 version 26H1, all editions Windows 11 version 25H2, all editions Windows 11 version 24H2, all editions

​​​​​​​本文內容

什麼是執行提供者?

執行提供者 AI 元件是 Windows AI 元件,用於 Copilot+ 電腦,以實現硬體加速機器學習模型的執行。 這些元件作為 AI 模型與底層運算引擎(如 CPU、GPU 與 NPU)之間的硬體抽象層,使 Windows 與應用程式能在最佳硬體上高效執行 AI 工作負載。

執行提供者 (EP) 是一個模組化元件,整合於 ONNX 執行環境,提供針對硬體的 AI 推論優化。 執行提供者處理圖劃分、核心選擇及運算子執行等任務,同時抽象化廠商專用加速函式庫的複雜性。 此設計使單一 AI 模型能跨越多種硬體配置,而無需對應用層級做出改變。

在 Copilot+ PC 上,執行供應商的 AI 元件支援多個硬體平台及矽晶片廠商。 例如針對 Intel、AMD、Qualcomm 和 NVIDIA 硬體優化的執行提供者,這些服務都讓 AI 模型能利用 NPU 或 GPU 等專用加速器。 當特定工作負載不支援硬體加速時,執行會自動回退到相容的計算後端,確保可靠性與廣泛的裝置相容性。

執行提供者 AI 元件是 Windows AI 平台的基礎部分。 它們被 Windows 功能、Copilot+ 體驗以及依賴本地 AI 推論的開發者應用程式所使用。 透過動態選擇與管理執行提供者,Windows 能提供低延遲效能、提升能效,以及在不同裝置配置間保持一致的 AI 行為。

回到頁首

MIGraphX 執行提供者

MIGraphX 執行提供者是 AMD 的執行提供者, (EP) ,搭配 ONNX 執行時 / Windows 機器學習 (機器學習) ,透過將支援的 ONNX 模型操作卸載至 AMD GPU 來實現硬體加速推論。 它基於 AMD 的 MIGraphX 圖推論引擎,能加速機器學習模型推論,並在 AMD GPU 硬體上運行 ONNX 模型時實現硬體專屬優化。

回到頁首

NVIDIA TensorRT-RTX 執行提供者

NVIDIA TensorRT-RTX 執行提供者是一款 ONNX 執行時/Windows 機器學習執行工具 (EP) ,專為加速 NVIDIA RTX GPU 上的 ONNX 模型推論,適用於以用戶端為中心 (終端用戶 PC) 場景。 它利用 NVIDIA 的 TensorRT for RTX 執行環境,在本地 GPU 上生成並執行 RTX 優化的推論引擎,讓 Windows 與應用程式能利用 RTX 硬體加速。

回到頁首

Intel OpenVINO 執行提供者

Intel OpenVINO 執行提供者是一種執行提供者 (EP) ,搭配 ONNX 執行時 / Windows 機器學習,在 Intel 平台上實現硬體加速推理。 它加速 Intel CPU、GPU 與 NPU 上的 ONNX 模型,讓 Windows 及應用程式能利用 Intel 硬體優化來處理機器學習工作負載。

回到頁首

高通 QNN 執行提供者

高通 QNN 執行提供者是 EP) (用於 ONNX 執行時 (及 Windows 機器學習場景的執行提供者,使用 ONNX 執行時) ,實現高通晶片組上的硬體加速執行。 它使用 Qualcomm AI Engine Direct SDK (QNN SDK) ,從 ONNX 模型構建 QNN 圖,並由支援的加速器後端函式庫執行。

回到頁首

AMD Vitis AI 執行提供者

AMD Vitis AI 執行提供者是一款與 ONNX Runtime / Windows ML 搭配使用的執行工具,能在 AMD 平台上實現硬體加速的 AI 推理。 根據 Microsoft 公布的說法,Vitis AI 是 AMD 用於硬體加速 AI 推論的開發堆疊,目標平台包括 Ryzen AI、AMD 可適應 SoC 及 Alveo 資料中心加速卡。

回到頁首

Need more help?

Want more options?

探索訂閱權益、瀏覽訓練課程、瞭解如何保護您的裝置等等。