Gælder for
Windows 11 version 26H1, all editions Windows 11 version 25H2, all editions Windows 11 version 24H2, all editions

​​​​​​​Denne artikel indeholder

Hvad er en eksekveringsudbyder?

Execution Provider AI-komponenter er Windows AI-komponenter, der bruges på Copilot+ pc'er til at aktivere hardwareaccelet udførelse af maskinlæringsmodeller. Disse komponenter fungerer som hardwareindvindingslaget mellem AI-modeller og de underliggende computerprogrammer – f.eks. CPU'er, GPU'er og NPUs – så Windows og programmer kan køre AI-arbejdsbelastninger effektivt på den bedste tilgængelige hardware.

En eksekveringsudbyder (EP) er en modulkomponent, der integreres med ONNX Runtime for at levere hardwarespecifikke optimeringer til AI-afledning. Eksekveringsudbydere håndterer opgaver som f.eks. grafpartitionering, kernevalg og operatorudførelse, mens kompleksiteten af leverandørspecifikke accelerationsbiblioteker abstrakteres. Dette design gør det muligt for en enkelt AI-model at køre på tværs af forskellige hardwarekonfigurationer uden at kræve ændringer på programniveau.

På Copilot+-pc'er understøtter eksekveringsudbyderens AI-komponenter flere hardwareplatforme og processorleverandører. Eksempler omfatter eksekveringsudbydere, der er optimeret til Intel-, AMD-, Qualcomm- og NVIDIA-hardware, der hver især aktiverer AI-modeller til at udnytte specialiserede acceleratorer som NPUs eller GPU'er, når de er tilgængelige. Når hardwareacceleration ikke understøttes for en given arbejdsmængde, går udførelse automatisk tilbage til en kompatibel computer-backend, så pålideligheden og den brede enhedskompatibilitet sikres.

Execution Provider AI-komponenter er en grundlæggende del af Windows AI-platformen. De bruges af Windows-funktioner, Copilot+-oplevelser og udviklerprogrammer, der er afhængige af lokal AI-afledning. Ved dynamisk at vælge og administrere eksekveringsudbydere kan Windows levere ydeevne med lav latenstid, forbedret strømeffektivitet og ensartet ai-funktionsmåde på tværs af forskellige enhedskonfigurationer.

Tilbage til toppen

MIGraphX-eksekveringsudbyder

MIGraphX-eksekveringsudbyderen er en AMD-eksekveringsudbyder (EP), der bruges sammen med ONNX Runtime/Windows MACHINE-learning (ML) til at levere hardwareaccelede inferens ved at aflaste understøttede ONNX-modelhandlinger til AMD-GPU'er. Den er baseret på AMD's MIGraphX graph-afledningsmotor, som accelererer maskinlæringsmodellens afledning og aktiverer hardwarespecifikke optimeringer, når du kører ONNX-modeller på AMD GPU-hardware.

Tilbage til toppen

NVIDIA TensorRT-RTX Execution Provider

NVIDIA TensorRT-RTX Execution Provider er en ONNX-kørsels-/Windows ML-eksekveringsprovider (EP), der er udviklet specifikt til at accelerere ONNX-modelafledning på NVIDIA RTX-GPU'er til klientcentriske scenarier (slutbruger-pc). Det udnytter NVIDIA's TensorRT til RTX-runtime til at generere og køre RTX-optimerede afledningsmotorer på den lokale GPU, så Windows og apps kan drage fordel af RTX-hardwareacceleration.

Tilbage til toppen

Intel OpenVINO Execution Provider

Intel OpenVINO Execution Provider er en eksekveringsprovider (EP), der bruges sammen med ONNX Runtime/Windows ML for at aktivere hardwareaccelereret inferens på Intel-platforme. Det accelererer ONNX-modeller på Intel-CPU'er, GPU'er og NPUs, så Windows og programmer kan drage fordel af Intel-hardwareoptimeringer til arbejdsbelastninger ved maskinel indlæring.

Tilbage til toppen

Qualcomm QNN Execution Provider

Qualcomm QNN Execution Provider er en eksekveringsudbyder (EP) til ONNX Runtime (og Windows ML-scenarier, der bruger ONNX Runtime), der aktiverer hardwareacceletkørsel på Qualcomm-chipsæt. Den bruger Qualcomm AI Engine Direct SDK (QNN SDK) til at konstruere en QNN-graf fra en ONNX-model, som derefter udføres af et understøttet accelerator-backendbibliotek.

Tilbage til toppen

AMD Vitis AI Execution Provider

AMD Vitis AI Execution Provider er en eksekveringsudbyder, der bruges sammen med ONNX Runtime/Windows ML, der aktiverer hardwareaccelereret AI-afledning på AMD-platforme. I Microsofts offentliggjorte ordlyd er Vitis AI AMD's udviklingsstak til hardwareaccelereret AI-afledning, og den er målrettet AMD-platforme, herunder Ryzen AI, AMD Adaptable SoCs og Alveo Data Center Acceleration Cards.

Tilbage til toppen

Har du brug for mere hjælp?

Vil du have flere indstillinger?

Udforsk abonnementsfordele, gennemse kurser, få mere at vide om, hvordan du sikrer din enhed og meget mere.