S’applique à
Windows 11 version 26H1, all editions Windows 11 version 25H2, all editions Windows 11 version 24H2, all editions

​​​​​​​Dans cet article

Qu’est-ce qu’un fournisseur d’exécution ?

Les composants IA du fournisseur d’exécution sont des composants Windows AI utilisés sur les PC Copilot+ pour permettre l’exécution à accélération matérielle des modèles Machine Learning. Ces composants agissent comme la couche d’abstraction matérielle entre les modèles IA et les moteurs de calcul sous-jacents, tels que les processeurs, les GPU et les NPU, ce qui permet à Windows et aux applications d’exécuter efficacement des charges de travail IA sur le meilleur matériel disponible.

Un fournisseur d’exécution (EP) est un composant modulaire qui s’intègre au runtime ONNX pour fournir des optimisations spécifiques au matériel pour l’inférence d’IA. Les fournisseurs d’exécution gèrent des tâches telles que le partitionnement de graphe, la sélection du noyau et l’exécution des opérateurs, tout en faisant abstraction de la complexité des bibliothèques d’accélération spécifiques au fournisseur. Cette conception permet à un modèle IA unique de s’exécuter sur diverses configurations matérielles sans nécessiter de modifications au niveau de l’application.

Sur les PC Copilot+, les composants IA du fournisseur d’exécution prennent en charge plusieurs plateformes matérielles et fournisseurs de silicium. Par exemple, des fournisseurs d’exécution optimisés pour le matériel Intel, AMD, Qualcomm et NVIDIA, chacun permettant aux modèles IA de tirer parti d’accélérateurs spécialisés tels que les NPU ou les GPU lorsqu’ils sont disponibles. Lorsque l’accélération matérielle n’est pas prise en charge pour une charge de travail donnée, l’exécution revient automatiquement à un serveur principal de calcul compatible, ce qui garantit la fiabilité et la compatibilité étendue des appareils.

Les composants IA du fournisseur d’exécution sont une partie fondamentale de la plateforme d’IA Windows. Ils sont utilisés par les fonctionnalités Windows, les expériences Copilot+ et les applications de développement qui s’appuient sur l’inférence ia locale. En sélectionnant et en gérant dynamiquement les fournisseurs d’exécution, Windows peut offrir des performances à faible latence, une efficacité énergétique améliorée et un comportement d’IA cohérent sur différentes configurations d’appareil.

Retour au début

Fournisseur d’exécution MIGraphX

Le fournisseur d’exécution MIGraphX est un fournisseur d’exécution AMD (EP) utilisé avec ONNX Runtime/Windows Machine Learning (ML) pour fournir une inférence à accélération matérielle en déchargeant les opérations de modèle ONNX prises en charge vers des GPU AMD. Il est basé sur le moteur d’inférence de graphe MIGraphX d’AMD, qui accélère l’inférence de modèle Machine Learning et permet des optimisations spécifiques au matériel lors de l’exécution de modèles ONNX sur du matériel GPU AMD.

Retour au début

Fournisseur d’exécution NVIDIA TensorRT-RTX

Le fournisseur d’exécution NVIDIA TensorRT-RTX est un fournisseur d’exécution ONNX/Windows ML conçu spécifiquement pour accélérer l’inférence de modèle ONNX sur les GPU NVIDIA RTX pour les scénarios centrés sur le client (PC utilisateur final). Il tire parti du runtime TensorRT pour RTX de NVIDIA pour générer et exécuter des moteurs d’inférence optimisés RTX sur le GPU local, ce qui permet à Windows et aux applications de tirer parti de l’accélération matérielle RTX.

Retour au début

Fournisseur d’exécution Intel OpenVINO

Le fournisseur d’exécution Intel OpenVINO est un fournisseur d’exécution (EP) utilisé avec ONNX Runtime/Windows ML pour activer l’inférence à accélération matérielle sur les plateformes Intel. Il accélère les modèles ONNX sur les processeurs Intel, les GPU et les NPU, ce qui permet à Windows et aux applications de tirer parti des optimisations matérielles Intel pour les charges de travail d’apprentissage automatique.

Retour au début

Fournisseur d’exécution QNN De Qualcomm

Le fournisseur d’exécution QNN de Qualcomm est un fournisseur d’exécution (EP) pour ONNX Runtime (et les scénarios Windows ML qui utilisent ONNX Runtime) qui permet une exécution à accélération matérielle sur les circuits de puces Qualcomm. Il utilise le SDK Direct du moteur Qualcomm AI (SDK QNN) pour construire un graphe QNN à partir d’un modèle ONNX, qui est ensuite exécuté par une bibliothèque back-end d’accélérateur prise en charge.

Retour au début

Fournisseur d’exécution d’IA AMD Vitis

Le fournisseur d’exécution d’IA AMD Vitis est un fournisseur d’exécution utilisé avec ONNX Runtime/Windows ML qui permet l’inférence d’IA à accélération matérielle sur les plateformes AMD. Dans la formulation publiée par Microsoft, Vitis AI est la pile de développement d’AMD pour l’inférence d’IA à accélération matérielle, et elle cible les plateformes AMD, notamment Ryzen AI, LES SOC adaptables AMD et les cartes d’accélération du centre de données Alveo.

Retour au début

Besoin d’aide ?

Vous voulez plus d’options ?

Explorez les avantages de l’abonnement, parcourez les cours de formation, découvrez comment sécuriser votre appareil, etc.