Poslední aktualizace: srpen 2023
Copilot kombinuje sílu velkých jazykových modelů (LLM) s inteligencí rozhraní Microsoft Graph. Pomocí vašich obchodních dat Copilot syntetizuje informace z dokumentů, e-mailů a zpráv, aby vám poskytl souhrny, odpovídal na obchodní otázky a generoval koncepty obsahu ze souborů, zpráv a tak dále.
Copilot používá velký jazykový model, který napodobuje přirozený jazyk na základě vzorů z velkých objemů cvičných dat. Model je optimalizovaný pro konverzaci pomocí RLHF (Reinforcement Learning with Human Feedback), což je metoda, která využívá lidské projevy k vedení modelu směrem k požadovanému chování.
Když odešlete textovou výzvu službě Copilot, model vygeneruje odpověď tím, že navrhne, jaký text by měl následovat v řetězci slov. Model je založený na jazyce specifickém pro doménu (DSL), který umožňuje určit, jaký druh informací chcete vyhledat a syntetizovat z dat Microsoft 365. Je důležité mít na paměti, že systém byl navržen tak, aby napodoboval přirozenou lidskou komunikaci, ale výstup může být nepřesný nebo zastaralý.
V přirozeném jazyce můžete službě Copilot pokládat pracovní otázky, žádat o pomoc s generováním obsahu nebo shrnutím tématu, dokumentu nebo chatové konverzace. Čím konkrétnější je výzva, tím lepší jsou výsledky.
Tady je několik příkladů výzev, které vám pomůžou začít:
-
Shrnutí nepřečtených e-mailů od Jana
-
Vytvoření zprávy pro můj tým s položkami akcí z poslední schůzky
-
Jaké jsou naše zásady pro dovolenou?
-
S kým mám zítra schůzku?
Copilot je navržený tak, aby poskytoval přesné a informativní odpovědi na základě znalostí a vašich dat dostupných v rozhraní Microsoft Graph. Odpovědi ale nemusí být vždy přesné, protože se generují na základě vzorů a pravděpodobností v jazykových datech. Odpovědi zahrnují odkazy, pokud je to možné, a je důležité tyto informace ověřit. I když Copilot nabízí možnosti vyhnout se sdílení urážlivého obsahu nebo potenciálně škodlivých témat, stále se můžou zobrazit neočekávané výsledky. Neustále pracujeme na zdokonalování naší technologie pro prevenci škodlivého obsahu.
Pokud zjistíte, že odpověď je nesprávná, nebo pokud narazíte na škodlivý nebo nevhodný obsah, pošlete nám zpětnou vazbu výběrem ikony Palce dolů a podrobným popisem problému.
Aby byla zajištěna kvalita, Copilot dostane testovací otázky a jeho odpovědi jsou hodnoceny na základě kritérií, jako je přesnost, relevance, tón a inteligence. Tato skóre vyhodnocení se pak použijí ke zdokonalení modelu. Je důležité mít na paměti, že systém byl navržen tak, aby napodoboval přirozenou lidskou komunikaci, ale výstup může být nepřesný, nesprávný nebo zastaralý. Poskytnutí zpětné vazby prostřednictvím ikon Palce nahoru a Palce dolů pomůže naučit službu Copilot, které odpovědi jsou a které nejsou pro vás jako uživatele užitečné. Tuto zpětnou vazbu použijeme ke zlepšování služby Copilot, stejně jako zpětnou vazbu od zákazníků používáme ke zlepšování dalších Microsoft 365 služeb a Microsoft 365 aplikací. Tuto zpětnou vazbu nepoužíváme k trénování základních modelů používaných službou Copilot. Zákazníci můžou zpětnou vazbu spravovat prostřednictvím ovládacích prvků správce. Další informace najdete v tématu Správa zpětné vazby od Microsoftu pro vaši organizaci.
Ne, abyste mohli používat Copilot, už nemusíte svůj osobní účet propojit s pracovním účtem. Pokud chcete používat Copilot v Bingu pro firmy, přihlaste se k Microsoft Edge pomocí svého pracovního účtu.
Pokud chcete používat Copilot v Bingu pro firmy, musíte být přihlášení k Microsoft Edge pomocí svého pracovního účtu Microsoft. Pokud chcete používat Bing pro spotřebitele, přihlaste se k Microsoft Edge pomocí svého osobního účtu Microsoft. Pokud chcete používat obojí současně, musíte otevřít Microsoft Edge ve dvou samostatných oknech, přihlásit se k jednomu z nich pomocí pracovního účtu a k druhému pomocí svého osobního účtu.
Copilot a Microsoft 365 jsou postavené na komplexním přístupu Microsoftu k zabezpečení, dodržování předpisů a ochraně osobních údajů.
Další informace o ochraně osobních údajů najdete v následující části:
-
Pokud používáte Copilot pro Microsoft 365 ve vaší organizaci (s pracovním nebo školním účtem), přečtěte si téma Data, ochrana osobních údajů a zabezpečení pro Microsoft Copilot pro Microsoft 365.
-
Pokud používáte Copilot v aplikacích Microsoft 365 doma jako součást Copilot Pro (se svým osobním účtem Microsoft), přečtěte si téma Copilot Pro: Aplikace Microsoft 365 a vaše soukromí.
Jelikož je umělá inteligence připravena změnit naše životy, musíme společně definovat nová pravidla, normy a postupy pro používání a dopad této technologie. Microsoft se od roku 2017 vydal na cestu k zodpovědné umělé inteligenci, kdy jsme definovali naše principy a přístup k zajištění toho, aby se tato technologie používala způsobem, který je založený na etických principech, kde jsou lidé na prvním místě. Přečtěte si další informace o architektuře společnosti Microsoft pro zodpovědné vytváření systémů s umělou inteligencí, o etických principech, které nás vedou, a o nástrojích a možnostech, které jsme vytvořili, abychom zákazníkům pomohli používat umělou inteligenci zodpovědně.
Copilot zobrazí pouze data, ke kterým má každý jednotlivec přístup pomocí stejných základních ovládacích prvků pro přístup k datům používaným v jiných službách Microsoft 365. Model oprávnění v rámci vašeho tenanta Microsoft 365 vám pomůže zajistit, že data nebudou unikat mezi uživateli a skupinami. Další informace o tom, jak Microsoft chrání vaše data, najdete v Prohlášení společnosti Microsoft o zásadách ochrany osobních údajů.