Dotyczy
Windows 11 version 26H1, all editions Windows 11 version 25H2, all editions Windows 11 version 24H2, all editions

​​​​​​​W tym artykule

Co to jest dostawca wykonywania?

Składniki AI dostawcy wykonywania to składniki AI systemu Windows używane na komputerach z rozwiązaniaMi Copilot+, aby umożliwić sprzętowe wykonywanie modeli uczenia maszynowego. Te składniki działają jako warstwa abstrakcji sprzętu między modelami AI a podstawowymi aparatami obliczeniowymi — takimi jak procesory, procesory graficzne i npU — umożliwiając systemowi Windows i aplikacjom wydajne uruchamianie obciążeń AI na najlepszym dostępnym sprzęcie.

Dostawca wykonywania (EP) to modułowy składnik, który integruje się z onnx runtime, aby dostarczać optymalizacje specyficzne dla sprzętu dla wnioskowania AI. Dostawcy wykonywania obsługują zadania, takie jak partycjonowanie wykresu, wybieranie jądra i wykonywanie operatorów, a jednocześnie abstrakcji złożoności bibliotek przyspieszenia specyficznych dla dostawcy. Ten projekt umożliwia uruchamianie pojedynczego modelu AI w różnych konfiguracjach sprzętu bez konieczności zmiany na poziomie aplikacji.

Na komputerach Copilot+ składniki AI dostawcy wykonywania obsługują wiele platform sprzętowych i dostawców układów krzemowych. Przykładami są dostawcy wykonywania zoptymalizowani pod kątem sprzętu Intel, AMD, Qualcomm i NVIDIA, z których każdy umożliwia modelom AI korzystanie z specjalistycznych akceleratorów, takich jak NPU lub GPU, jeśli są dostępne. Jeśli przyspieszenie sprzętowe nie jest obsługiwane dla danego obciążenia pracą, wykonanie automatycznie wraca do zgodnego zaplecza obliczeniowego, zapewniając niezawodność i szeroką zgodność urządzeń.

Składniki AI dostawcy wykonywania są podstawową częścią platformy AI systemu Windows. Są one używane przez funkcje systemu Windows, rozwiązania Copilot+ i aplikacje deweloperskie korzystające z lokalnego wnioskowanie OI. Dzięki dynamicznemu wybieraniu dostawców wykonywania i zarządzaniu nimi system Windows może zapewniać wydajność z małym opóźnieniem, zwiększoną wydajność zasilania i spójne zachowanie SI w różnych konfiguracjach urządzeń.

Powrót do początku

Dostawca wykonywania funkcji MIGraphX

Dostawca wykonywania MIGraphX jest dostawcą wykonywania AMD (EP) używanym z onnx runtime / uczeniem maszynowym systemu Windows (ML) w celu dostarczania przyspieszonego sprzętu wnioskowania poprzez odciążenie obsługiwanych operacji modelu ONNX do procesorów AMD. Jest on oparty na aferencie wykresu MIGraphX firmy AMD, który przyspiesza wnioskowanie o modelu uczenia maszynowego i umożliwia optymalizacje specyficzne dla sprzętu podczas uruchamiania modeli ONNX na sprzęcie PROCESORA GRAFICZNEGO AMD.

Powrót do początku

Dostawca wykonywania nvidia TensorRT-RTX

Dostawca wykonywania NVIDIA TensorRT-RTX jest dostawcą wykonawczego ONNX Runtime / Windows ML (EP) zaprojektowanym specjalnie w celu przyspieszenia wnioskowania o modelu ONNX na procesorach GRAFICZNYCH NVIDIA RTX w scenariuszach opartych na kliencie (komputerach użytkowników końcowych). Wykorzystuje tensorRT firmy NVIDIA do czasu wykonywania RTX, aby generować i uruchamiać zoptymalizowane pod kątem RTX aparaty wnioskowania na lokalnej karcie graficznej, umożliwiając systemowi Windows i aplikacjom korzystanie z przyspieszenia sprzętowego RTX.

Powrót do początku

Dostawca wykonywania Intel OpenVINO

Dostawca wykonywania Intel OpenVINO jest dostawcą wykonywania (EP) używanym z ONNX Runtime / Windows ML w celu umożliwienia wnioskowanie przyspieszonego sprzętowo na platformach Intel. Przyspiesza ono działanie modeli ONNX na procesorach Intel, procesorach GPU i NPU, umożliwiając systemowi Windows i aplikacjom korzystanie z optymalizacji sprzętu Intel dla obciążeń związanych z uczeniem maszynowym.

Powrót do początku

Dostawca wykonywania Qualcomm QNN

Qualcomm QNN Execution Provider to dostawca wykonywania (EP) dla onnx runtime (i scenariuszy Windows ML, które używają ONNX Runtime), który umożliwia sprzętowe przyspieszanie wykonywania na mikroukładach Qualcomm. Konstruuje wykres QNN z modelu ONNX za pomocą zestawu SDK Qualcomm AI Engine Direct SDK (QNN SDK), który jest następnie wykonywany przez obsługiwaną bibliotekę zaplecza akceleratora.

Powrót do początku

AMD Vitis AI Execution Provider

AmD Vitis AI Execution Provider jest dostawcą wykonywania używanym z ONNX Runtime / Windows ML, który umożliwia wnioskowanie sprzętowo przyspieszonej SI na platformach AMD. W opublikowanych przez Microsoft sformułowaniach, Vitis AI jest stos rozwoju AMD dla sprzętowo przyspieszonego wnioskowania AI, i jest skierowany do platform AMD, w tym Ryzen AI, AMD Adaptable SoCs i Alveo Data Center Acceleration Cards.

Powrót do początku

Potrzebujesz dalszej pomocy?

Chcesz uzyskać więcej opcji?

Poznaj korzyści z subskrypcji, przeglądaj kursy szkoleniowe, dowiedz się, jak zabezpieczyć urządzenie i nie tylko.