Hatókör
Windows 11 version 26H1, all editions Windows 11 version 25H2, all editions Windows 11 version 24H2, all editions

​​​​​​​Tartalom

Mi az a végrehajtási szolgáltató?

A végrehajtási szolgáltató AI-összetevői a Copilot+ rendszerű számítógépeken használt Windows AI-összetevők, amelyek lehetővé teszik a gépi tanulási modellek hardveresen gyorsított végrehajtását. Ezek az összetevők az AI-modellek és a mögöttes számítási motorok ( például CPU-k, GPU-k és NPU-k) közötti hardver absztrakciós rétegként működnek, így a Windows és az alkalmazások hatékonyan futtathatnak AI-számítási feladatokat a rendelkezésre álló legjobb hardveren.

A végrehajtási szolgáltató (EP) egy moduláris összetevő, amely integrálható az ONNX-futtatókörnyezettel, hogy hardverspecifikus optimalizálást biztosítson az AI-következtetéshez. A végrehajtási szolgáltatók olyan feladatokat kezelnek, mint a gráfparticionálás, a kernelkiválasztás és az operátor-végrehajtás, miközben absztrahálja a szállítóspecifikus gyorsítási kódtárak összetettségét. Ezzel a kialakítással egyetlen AI-modell futtatható különböző hardverkonfigurációkon anélkül, hogy alkalmazásszintű módosításokat kellene végrehajtania.

A Copilot+ rendszerű számítógépeken a végrehajtási szolgáltató AI-összetevői több hardverplatformot és szilíciumgyártót is támogatnak. Ilyenek például az Intelre, AMD-re, Qualcommra és NVIDIA-hardverre optimalizált végrehajtási szolgáltatók, amelyek mindegyike lehetővé teszi, hogy az AI-modellek kihasználhassák az olyan speciális gyorsítók előnyeit, mint az NPU-k vagy GPU-k, ha elérhetők. Ha egy adott számítási feladat esetében a hardveres gyorsítás nem támogatott, a végrehajtás automatikusan visszaesik egy kompatibilis számítási háttérrendszerre, biztosítva a megbízhatóságot és a széles körű eszközkompatibilitást.

A Végrehajtási szolgáltató AI-összetevői a Windows AI platform alapvető részét képezik. Ezeket a Windows-funkciók, a Copilot+ -élmények és a helyi AI-következtetésre támaszkodó fejlesztői alkalmazások használják. A végrehajtási szolgáltatók dinamikus kiválasztásával és kezelésével a Windows alacsony késésű teljesítményt, jobb energiahatékonyságot és konzisztens AI-viselkedést biztosít a különböző eszközkonfigurációkban.

Vissza a lap tetejére

MIGraphX végrehajtási szolgáltató

A MIGraphX végrehajtási szolgáltató egy AMD végrehajtási szolgáltató (EP), amelyet az ONNX futtatókörnyezettel/Windows gépi tanulással (ML) használnak a hardveres gyorsításhoz a támogatott ONNX-modellműveletek AMD GPU-kra való kiszervezésével. Az AMD MIGraphX gráfkövetkeztetési motorján alapul, amely felgyorsítja a gépi tanulási modellek következtetését, és lehetővé teszi a hardverspecifikus optimalizálásokat, amikor ONNX-modelleket futtat AMD GPU-hardveren.

Vissza a lap tetejére

NVIDIA TensorRT-RTX végrehajtási szolgáltató

Az NVIDIA TensorRT-RTX végrehajtási szolgáltató egy ONNX futtatókörnyezet/ Windows ML végrehajtási szolgáltató (EP), amelyet kifejezetten az ONNX modellkövetkeztetés felgyorsítására terveztek az NVIDIA RTX GPU-kon az ügyfélközpontú (végfelhasználói PC-k) forgatókönyvekhez. Az NVIDIA TensorRT for RTX-futtatókörnyezetével RTX-optimalizált következtetési motorokat hoz létre és futtat a helyi GPU-n, így a Windows és az alkalmazások kihasználhatják az RTX hardveres gyorsítás előnyeit.

Vissza a lap tetejére

Intel OpenVINO végrehajtási szolgáltató

Az Intel OpenVINO végrehajtási szolgáltató egy végrehajtási szolgáltató (EP), amelyet az ONNX futtatókörnyezettel/Windows ML-vel használnak a hardveres gyorsítás engedélyezéséhez az Intel-platformokon. Felgyorsítja az ONNX-modelleket intel cpu-k, GPU-k és NPU-k esetében, így a Windows és az alkalmazások kihasználhatják az Intel hardveroptimalizálásait a gépi tanulási számítási feladatokhoz.

Vissza a lap tetejére

Qualcomm QNN-végrehajtási szolgáltató

A Qualcomm QNN végrehajtási szolgáltató egy végrehajtási szolgáltató (EP) az ONNX-futtatókörnyezethez (és az ONNX-futtatókörnyezetet használó Windows ML-forgatókönyvekhez), amely lehetővé teszi a hardveresen gyorsított végrehajtást a Qualcomm lapkakészleteken. A Qualcomm AI Engine Direct SDK (QNN SDK) használatával hoz létre egy QNN-gráfot egy ONNX-modellből, amelyet aztán egy támogatott gyorsító háttértár hajt végre.

Vissza a lap tetejére

AMD Vitis AI-végrehajtási szolgáltató

Az AMD Vitis AI végrehajtási szolgáltató az ONNX-futtatókörnyezethez/Windows ML-hez használt végrehajtási szolgáltató, amely lehetővé teszi a hardveresen gyorsított AI-következtetést az AMD-platformokon. A Microsoft közzétett megfogalmazásában a Vitis AI az AMD hardveresen gyorsított AI-következtetési fejlesztési verme, és olyan AMD-platformokat céloz meg, mint a Ryzen AI, az AMD adaptálható soCs-k és az Alveo Data Center Acceleration Cards.

Vissza a lap tetejére

További segítségre van szüksége?

További lehetőségeket szeretne?

Fedezze fel az előfizetés előnyeit, böngésszen az oktatóanyagok között, ismerje meg, hogyan teheti biztonságossá eszközét, és így tovább.