Gilt für
Windows 11 version 26H1, all editions Windows 11 version 25H2, all editions Windows 11 version 24H2, all editions

​​​​​​​In diesem Artikel

Was ist ein Ausführungsanbieter?

Ki-Komponenten des Ausführungsanbieters sind Windows-KI-Komponenten, die auf Copilot+-PCs verwendet werden, um die hardwarebeschleunigte Ausführung von Machine Learning-Modellen zu ermöglichen. Diese Komponenten fungieren als Hardware-Abstraktionsebene zwischen KI-Modellen und den zugrunde liegenden Compute-Engines (z. B. CPUs, GPUs und NPUs), sodass Windows und Anwendungen KI-Workloads effizient auf der besten verfügbaren Hardware ausführen können.

Ein Ausführungsanbieter (Execution Provider, EP) ist eine modulare Komponente, die in die ONNX-Runtime integriert wird, um hardwarespezifische Optimierungen für KI-Rückschlüsse bereitzustellen. Ausführungsanbieter übernehmen Aufgaben wie Graphpartitionierung, Kernelauswahl und Operatorausführung und abstrahieren gleichzeitig die Komplexität von anbieterspezifischen Beschleunigungsbibliotheken. Dieses Design ermöglicht die Ausführung eines einzelnen KI-Modells in verschiedenen Hardwarekonfigurationen, ohne dass Änderungen auf Anwendungsebene erforderlich sind.

Auf Copilot+-PCs unterstützen KI-Komponenten des Ausführungsanbieters mehrere Hardwareplattformen und Siliziumanbieter. Beispiele hierfür sind Ausführungsanbieter, die für Intel-, AMD-, Qualcomm- und NVIDIA-Hardware optimiert sind, die jeweils KI-Modelle ermöglichen, spezielle Beschleuniger wie NPUs oder GPUs zu nutzen, sofern verfügbar. Wenn die Hardwarebeschleunigung für eine bestimmte Workload nicht unterstützt wird, greift die Ausführung automatisch auf ein kompatibles Compute-Back-End zurück, um Zuverlässigkeit und umfassende Gerätekompatibilität sicherzustellen.

Ki-Komponenten des Ausführungsanbieters sind ein grundlegender Bestandteil der Windows KI-Plattform. Sie werden von Windows-Features, Copilot+-Umgebungen und Entwickleranwendungen verwendet, die auf lokalen KI-Rückschlüssen basieren. Durch die dynamische Auswahl und Verwaltung von Ausführungsanbietern kann Windows eine geringe Latenzleistung, eine verbesserte Energieeffizienz und ein konsistentes KI-Verhalten für verschiedene Gerätekonfigurationen bereitstellen.

Nach oben

MIGraphX-Ausführungsanbieter

Der MIGraphX-Ausführungsanbieter ist ein AMD-Ausführungsanbieter (EP), der mit ONNX Runtime/Windows Machine Learning (ML) verwendet wird, um hardwarebeschleunigte Rückschlüsse zu ermöglichen, indem unterstützte ONNX-Modellvorgänge auf AMD-GPUs ausgelagert werden. Es basiert auf der MIGraphX-Graphenrückschluss-Engine von AMD, die den Rückschluss von Machine Learning-Modellen beschleunigt und hardwarespezifische Optimierungen ermöglicht, wenn ONNX-Modelle auf AMD GPU-Hardware ausgeführt werden.

Nach oben

NVIDIA TensorRT-RTX-Ausführungsanbieter

Der NVIDIA TensorRT-RTX-Ausführungsanbieter ist ein ONNX Runtime-/Windows ML-Ausführungsanbieter (EP), der speziell für die Beschleunigung des ONNX-Modellrückschlusses auf NVIDIA RTX-GPUs für clientzentrierte Szenarien (Endbenutzer-PC) entwickelt wurde. Es nutzt die TensorRT für RTX-Runtime von NVIDIA, um RTX-optimierte Rückschluss-Engines auf der lokalen GPU zu generieren und auszuführen, sodass Windows und Apps die RTX-Hardwarebeschleunigung nutzen können.

Nach oben

Intel OpenVINO-Ausführungsanbieter

Der Intel OpenVINO Execution Provider ist ein Ausführungsanbieter (EP), der mit ONNX Runtime/Windows ML verwendet wird, um hardwarebeschleunigte Rückschlüsse auf Intel-Plattformen zu ermöglichen. Es beschleunigt ONNX-Modelle auf Intel-CPUs, GPUs und NPUs, sodass Windows und Anwendungen die Vorteile von Intel-Hardwareoptimierungen für Machine Learning-Workloads nutzen können.

Nach oben

Qualcomm QNN-Ausführungsanbieter

Der Qualcomm QNN-Ausführungsanbieter ist ein Ausführungsanbieter (EP) für ONNX Runtime (und Windows ML-Szenarien, die ONNX Runtime verwenden), der eine hardwarebeschleunigte Ausführung auf Qualcomm-Chipsätzen ermöglicht. Es verwendet das Qualcomm AI Engine Direct SDK (QNN SDK), um einen QNN-Graphen aus einem ONNX-Modell zu erstellen, der dann von einer unterstützten Accelerator-Back-End-Bibliothek ausgeführt wird.

Nach oben

AMD Vitis AI Execution Provider

Der AMD Vitis AI Execution Provider ist ein Ausführungsanbieter, der mit ONNX Runtime/ Windows ML verwendet wird und hardwarebeschleunigte KI-Rückschlüsse auf AMD-Plattformen ermöglicht. In der von Microsoft veröffentlichten Formulierung ist Vitis AI der Entwicklungsstapel von AMD für hardwarebeschleunigte KI-Rückschlüsse und zielt auf AMD-Plattformen wie Ryzen KI, AMD Adaptable SoCs und Alveo Data Center Acceleration Cards ab.

Nach oben

Benötigen Sie weitere Hilfe?

Möchten Sie weitere Optionen?

Erkunden Sie die Abonnementvorteile, durchsuchen Sie Trainingskurse, erfahren Sie, wie Sie Ihr Gerät schützen und vieles mehr.