Poslední aktualizace: únor 2024

Základy copilotu v Bingu   

Úvod  

V únoru 2023 společnost Microsoft spustila nové vyhledávání na webu s využitím AI. Podporuje uživatele tím, že shrnuje výsledky hledání na webu a poskytuje chatovací prostředí. Uživatelé můžou také generovat kreativní obsah, jako jsou básně, vtipy, příběhy a obrázky pomocí Tvůrce obrázků Bingu. Nový Bing s vylepšenou AI běží na různých pokročilých technologiích od Microsoftu a OpenAI, včetně GPT-4, špičkového velkého jazykového modelu (LLM) a DALL-E, modelu hlubokého učení, který generuje digitální obrázky z popisů přirozeného jazyka, a to jak z OpenAI. S oběma modely jsme pracovali měsíce před veřejným vydáním, abychom vyvinuli přizpůsobenou sadu funkcí a technik pro připojení této špičkové technologie AI a vyhledávání na webu v novém Bingu.  V listopadu 2023 microsoft přejmenoval nový Bing na Copilot v Bingu.

V Microsoftu bereme náš závazek zodpovědné umělé inteligence vážně. Prostředí Copilot v Bingu bylo vyvinuto v souladu s principy AI společnosti Microsoft, standardem Odpovědné AI od Microsoftu a ve spolupráci se zodpovědnými odborníky na AI v celé společnosti, včetně Microsoftu Office of Responsible AI, našich technických týmů, Microsoft Research a Aether. Další informace o zodpovědné umělé inteligenci najdete v Microsoftu tady.  

V tomto dokumentu popisujeme náš přístup k zodpovědné umělé inteligenci pro Copilot v Bingu. Před vydáním jsme přijali nejmodernější metody k identifikaci, měření a zmírnění potenciálních rizik a zneužití systému a k zajištění jeho výhod pro uživatele. Vzhledem k tomu, že jsme pokračovali ve vývoji Copilotu v Bingu od prvního vydání, pokračovali jsme také v učení a vylepšování našeho zodpovědného úsilí o AI. Tento dokument bude pravidelně aktualizován, aby o našich vyvíjejících se procesech a metodách komunikovali.   

Klíčové termíny  

Copilot v Bingu je webové vyhledávání vylepšené AI. Protože běží na výkonné a nové technologii, začneme definováním některých klíčových termínů.  

Modely strojového učení, které pomáhají třídit data do označených tříd nebo kategorií informací. V aplikaci Copilot in Bing používáme klasifikátory tak, že pomáháme zjišťovat potenciálně škodlivý obsah odeslaný uživateli nebo vygenerovaný systémem s cílem zmírnit generování tohoto obsahu a zneužití nebo zneužití systému. 

Funkce Copilot ve službě Bing je ve výsledcích hledání na webu, když uživatelé hledají informace. To znamená, že zarovnáme odpověď na dotaz nebo výzvu uživatele na vysoce hodnocený obsah z webu a poskytujeme odkazy na weby, aby se uživatelé mohli dozvědět více. Bing řadí obsah vyhledávání na webu pomocí funkcí, jako je relevantnost, kvalita, důvěryhodnost a aktuálnost. Tyto koncepty podrobněji popisujeme v tématu Jak Bing doručuje výsledky hledání (viz "Kvalita a důvěryhodnost" v části "Jak Bing řadí výsledky hledání").   

Uzemněné odpovědi považujeme za odpovědi od společnosti Copilot ve službě Bing, ve kterých jsou tvrzení podporována informacemi obsaženými ve vstupních zdrojích, jako jsou výsledky vyhledávání na webu z dotazu nebo výzvy, znalostní báze informací kontrolovaných faktů bingu a v případě chatu nedávná historie konverzací z chatu. Neuzemněné odpovědi jsou ty, ve kterých příkaz není v těchto vstupních zdrojích uzemněný.  

Velké jazykové modely (LLM) jsou v tomto kontextu modely AI, které se trénují na velkých objemech textových dat, aby předpovídaly slova v sekvencích. Moduly LLM jsou schopné provádět různé úlohy, jako je generování textu, sumarizace, překlad, klasifikace a další.  

Metaprompt je program, který slouží k řízení chování systému. Části metapromptu pomáhají sladit chování systému s principy umělé inteligence Microsoftu a očekáváními uživatelů. Metaprompt může například obsahovat řádek typu "komunikujte ve zvoleném jazyce uživatele".  

Metoda nebo kombinace metod určených ke snížení potenciálních rizik, která mohou vzniknout při používání funkcí založených na umělé inteligenci v Copilotu v Bingu.  

Textové, hlasové, obrázky a/nebo jiné dotazy, které uživatel odesílá do Bingu jako vstup do modelu, který využívá nová generativní prostředí využívající AI v Bingu. Uživatel může například zadat následující výzvu:  

"Chystám výlet k našemu výročí v září. Na jaká místa můžeme jet, která jsou v rámci 3 hodin letu z london Heathrow?”  

Text, který uživatel odešle do Bingu z vyhledávacího panelu pro webové vyhledávání. V tomto dokumentu rozlišujeme dotaz (pro vyhledávání na webu) od výzvy (pro generativní prostředí v Bingu řízená AI). Uživatel může například zadat následující dotaz pro vyhledávání na webu:  

"destinace blízko letiště London Heathrow"  

Techniky používané odborníky k posouzení omezení a ohrožení zabezpečení systému a k otestování účinnosti plánovaných zmírnění rizik. Červené týmové testování a zátěžové testování se používají k identifikaci potenciálních rizik a liší se od systematického měření rizik.   

Text, obrázek, grafy atd., které Copilot v Bingu vypíše jako odpověď na výzvu. Synonyma pro "odpověď" zahrnují "dokončení", "generování" a "odpověď". Bing může například poskytnout následující odpověď na výzvu, kterou jsme použili v definici výzvy výše:   

"Blahopřejeme k vašemu výročí! Existuje mnoho míst, kam se můžete vydat, a to během 3 hodin letu z london Heathrow. Podle jednoho zdroje jsou některé z víkendových útěků během tří hodin letadlem z Londýna Bilbao, Kodaň, Reykjavík a Stockholm 1, 2. Další zdroj naznačuje, že některé z nejlepších míst v Evropě v září jsou Krakov, Florencie a Lisabon 3, 4. Můžete také zkontrolovat přímé lety z Londýna Heathrow do různých destinací a zjistit, co vás oslovuje 5. Doufám, že máte nádherný výlet!”  

Zamýšlená použití a nová prostředí AI  

Funkce Copilot v bingu slouží k propojení uživatelů s relevantními výsledky hledání, k prohlížení výsledků z celého webu, k hledání a shrnutí odpovědí, které uživatelé hledají, k vylepšování jejich výzkumu a k získání odpovědí pomocí chatu a k podnícení kreativity tím, že uživatelům pomáhá vytvářet obsah. Funkce Copilot v prostředích generující umělou inteligenci Bingu níže podporuje cíl být copilotem pro web využívajícím umělou inteligenci.  

Sumarizace. Když uživatelé odesílají vyhledávací dotaz na Copilot ve službě Bing, systém Bing dotaz zpracuje, provede jedno nebo více webových hledání a použije hlavní výsledky hledání na webu k vygenerování souhrnu informací, které se mají prezentovat uživatelům. Tyto souhrny obsahují odkazy, které uživatelům pomůžou zobrazit výsledky hledání používané k vytvoření souhrnu a snadno k nim získat přístup. Souhrny se můžou zobrazovat na pravé straně stránky s výsledky hledání a v rámci chatu.  

Prostředí chatu. Kromě sumarizace můžou uživatelé chatovat se službou Copilot v systému Bing prostřednictvím textového, obrázkového nebo hlasového vstupu, pokládat následné otázky k objasnění hledání a hledání nových informací a odesílat výzvy k vygenerování kreativního obsahu. Odkazy jsou také součástí chatu, když Copilot v Bingu shrnuje výsledky hledání v odpovědi.   

Generování kreativního obsahu. V prostředí chatu i na vyhledávací stránce můžou uživatelé vytvářet básně, vtipy, příběhy, obrázky a další obsah s využitím služby Copilot v Bingu.  Obrázky vytváří Návrhář (bývalý tvůrce obrázků Bingu) a uživatelé k této funkci mají přístup prostřednictvím domovské stránky Návrháře i stránky Copilot. 

Jak copilot v Bingu funguje?  

Se službou Copilot v Bingu jsme vyvinuli inovativní přístup, který přináší špičkové llmy do vyhledávání na webu. Když uživatel zadá výzvu do copilotu v Bingu, výzva, historie nedávných konverzací, metaprompt a hlavní výsledky hledání se odešlou jako vstupy do LLM. Model vygeneruje odpověď pomocí výzvy uživatele a historie nedávných konverzací ke kontextu požadavku, metaprompt pro sladění odpovědí s principy AI společnosti Microsoft a očekáváními uživatelů a výsledky hledání pro základní odpovědi v existujícím vysoce hodnoceném obsahu z webu.   

Odpovědi se uživatelům zobrazují v několika různých formátech, jako jsou tradiční odkazy na webový obsah, souhrny generované AI, obrázky a odpovědi na chat. Souhrny a odpovědi v chatu, které spoléhají na výsledky hledání na webu, budou obsahovat odkazy a část Další informace pod odpověďmi s odkazy na výsledky hledání, které byly použity k uzemnění odpovědi. Uživatelé můžou kliknout na tyto odkazy, aby se dozvěděli více o tématu a informacích použitých k vytvoření souhrnu nebo odpovědi na chat.    

V prostředí Copilot můžou uživatelé provádět vyhledávání na webu konverzačním způsobem tak, že do výzvy přidají kontext a interagují se systémovými odpověďmi, aby mohli dále specifikovat své zájmy hledání. Uživatel může například pokládat následné otázky, požadovat další upřesňující informace nebo reagovat na systém konverzačním způsobem. V prostředí chatu můžou uživatelé také vybrat odpověď z předem napsaných návrhů, kterým říkáme návrhy chatu. Tato tlačítka se zobrazí po každé odpovědi od Copilotu a poskytují navrhované výzvy k pokračování v konverzaci v rámci chatu. Návrhy chatu se také zobrazují společně se souhrnným obsahem na stránce výsledků hledání jako vstupní bod pro prostředí chatu.  

Copilot ve službě Bing také umožňuje uživateli vytvářet příběhy, básně, texty skladeb a obrázky s pomocí Bingu. Když Copilot v Bingu zjistí záměr uživatele generovat kreativní obsah (například výzva začíná na "write me a..."), systém ve většině případů vygeneruje obsah, který reaguje na výzvu uživatele. Podobně když Copilot v Bingu zjistí záměr uživatele vygenerovat obrázek (například výzva začíná na "nakreslete mě..."), systém ve většině případů vygeneruje obrázek reagující na výzvu uživatele. V prostředí vizuálního hledání v chatu můžou uživatelé s obrázkem pořízeným kamerou uživatele, nahraným ze zařízení uživatele nebo odkazem z webu vyzvat copilot v Bingu k pochopení kontextu, interpretaci a zodpovězení otázek týkajících se obrázku.  Uživatelé mohou také nahrát své soubory do služby Copilot, aby z nich mohli interpretovat, převádět, zpracovávat nebo počítat informace. V prostředí Microsoft Designeru, ke kterému mají uživatelé přístup prostřednictvím funkce Copilot ve službě Bing, můžou uživatelé nejen generovat obrázky pomocí výzev, ale také měnit jejich velikost nebo měnit jejich styly nebo provádět úpravy, jako je rozostření pozadí nebo zvýraznění barev. 

Uživatelé s účty Microsoft (MSA) teď mají také možnost přihlásit se k odběru služby Copilot Pro, která nabízí vylepšené prostředí, včetně zrychleného výkonu, rychlejšího vytváření imagí AI a brzy i možnosti vytvářet vlastní objekty GPT copilotu. Copilot Pro je v současné době k dispozici v omezeném počtu zemí a brzy plánujeme zpřístupnit copilot Pro na dalších trzích.

V prostředí Copilot mají uživatelé přístup k objektům GPT Copilot. Copilot GPT, podobně jako Designer GPT, je vlastní verze Microsoft Copilotu na téma, které je pro vás obzvláště zajímavé, jako je fitness, cestování a vaření, které vám můžou pomoct přeměnit vágní nebo obecné nápady na konkrétnější výzvy s výstupy včetně textů a obrázků. V copilotu uživatelé uvidí dostupné gpt Copilot a uživatelé s účty Copilot Pro budou mít brzy přístup k Copilot GPT Builder, což je funkce, která uživatelům umožňuje vytvářet a konfigurovat vlastní Copilot GPT. Výše uvedená omezení rizik zodpovědné umělé inteligence pro Copilot v Bingu se vztahují na gpt Copilot.

Další informace o tom, jak fungují gpty Copilot Pro a Copilot, najdete tady.

Copilot v Bingu se snaží poskytovat různorodé a komplexní výsledky hledání se svým závazkem k bezplatnému a otevřenému přístupu k informacím. Zároveň se snažíme o kvalitu produktů, abychom se vyhnuli neúmyslné propagaci potenciálně škodlivého obsahu pro uživatele. Další informace o tom, jak Bing řadí obsah, včetně toho, jak definuje relevanci a kvalitu a důvěryhodnost webové stránky, najdete v části "Pokyny pro webmastery Bingu".   Další informace o principech moderování obsahu bingu najdete v tématu "Jak Bing doručuje výsledky hledání".   

Identifikace, měření a zmírnění rizik  

Stejně jako u jiných transformačních technologií není využití výhod umělé inteligence bez rizika a základní část programu Odpovědné AI od Microsoftu je navržená tak, aby identifikovala potenciální rizika, změřila jejich sklony k výskytu a sestavila zmírnění rizik, která je řeší. Na základě našich principů AI a standardu odpovědné AI jsme se snažili identifikovat, měřit a zmírnit potenciální rizika a zneužití copilotu ve službě Bing a současně jsme zajistili transformativní a přínosné využití, které nové prostředí poskytuje. V následujících částech popisujeme náš iterativní přístup k identifikaci, měření a zmírnění potenciálních rizik.   

Na úrovni modelu začala naše práce průzkumnými analýzami GPT-4 v pozdním létě 2022. To zahrnovalo rozsáhlé testování červených týmů ve spolupráci s OpenAI. Toto testování bylo navrženo tak, aby posoudilo, jak by fungovala nejnovější technologie bez použití dalších bezpečnostních opatření. Naším konkrétním záměrem v této době bylo vytvořit škodlivé reakce, odhalit potenciální cesty ke zneužití a identifikovat možnosti a omezení. Naše kombinované poznatky v rámci OpenAI a Microsoftu přispěly k pokroku ve vývoji modelů a pro nás v Microsoftu jsme informovali o našich znalostech rizik a přispěli k včasným strategiím zmírnění rizik pro Copilot v Bingu.  

Kromě testování červeného týmu na úrovni modelu provedl mudisciplinární tým odborníků řadu kol testování červeného týmu na úrovni aplikací na Copilotu v prostředích AI Bingu, než je veřejně zpřístupňuje v naší omezené verzi Preview. Tento proces nám pomohl lépe pochopit, jak by systém mohli zneužít nežádoucí aktéři, a zlepšit naše zmírnění rizik. Zátěžové testeři, kteří nejsou nežádoucími osobami, také rozsáhle vyhodnotili nové funkce Bingu z hlediska nedostatků a ohrožení zabezpečení. Po vydání se nová prostředí AI v Bingu integrují do stávající infrastruktury měření a testování produkce technické organizace Bingu. Například testeři červeného týmu z různých oblastí a prostředí se nepřetržitě a systematicky snaží ohrozit systém a jejich závěry se používají k rozšíření datových sad, které Bing používá k vylepšování systému.  

Červené týmové testování a zátěžové testování může vést k výskytu konkrétních rizik, ale v produkčním prostředí budou mít uživatelé miliony různých druhů konverzací s Copilotem v Bingu. Konverzace jsou navíc vícenásobné a kontextové a identifikace škodlivého obsahu v konverzaci je složitý úkol. Abychom lépe porozuměli rizikům v prostředích AI Bingu a lépe ho řešili, vyvinuli jsme další zodpovědné metriky AI specifické pro tato nová prostředí AI pro měření potenciálních rizik, jako jsou jailbreaky, škodlivý obsah a neuzemněný obsah. Povolili jsme také měření ve velkém prostřednictvím částečně automatizovaných měrných kanálů. Pokaždé, když se aktualizují změny produktu, stávající zmírnění rizik nebo se navrhnou nová omezení rizik, aktualizujeme kanály měření tak, aby vyhodnotily výkon produktů i zodpovědné metriky AI.  

Jako ilustrativní příklad: Aktualizovaný částečně automatizovaný kanál měření škodlivého obsahu zahrnuje dvě hlavní inovace: simulaci konverzace a automatizovanou anotace konverzace ověřené člověkem. Za prvé, zodpovědní odborníci na AI vytvořili šablony pro zachycení struktury a obsahu konverzací, které můžou vést k různým typům škodlivého obsahu. Tyto šablony byly pak předány konverzačnímu agentu, který pracoval jako hypotetický uživatel s Copilotem v Bingu a generoval simulované konverzace. Abychom zjistili, jestli tyto simulované konverzace obsahují škodlivý obsah, použili jsme pokyny, které obvykle používají odborníci lingvisté k označování dat, a upravili jsme je tak, aby je používala GPT-4 k označování konverzací ve velkém měřítku. Tyto pokyny jsme zpřesněli, dokud nedojde k významné shodě mezi konverzacemi označenými modelem a konverzacemi označenými člověkem. Nakonec jsme pomocí modelem označených konverzací vypočítali metriku zodpovědné AI, která zachycuje efektivitu funkce Copilot v Bingu při omezování škodlivého obsahu.   

Naše kanály měření nám umožňují rychle provádět měření potenciálních rizik ve velkém měřítku. S identifikací nových problémů v období Preview a probíhajícím testováním červeným týmem pokračujeme v rozšiřování sad měření, abychom vyhodnotili další rizika.  

Vzhledem k tomu, že jsme identifikovali potenciální rizika a zneužití prostřednictvím procesů, jako je červené týmové testování a zátěžové testování, a změřili jsme je pomocí inovativních přístupů popsaných výše, vyvinuli jsme další zmírnění rizik pro ty, které se používají pro tradiční vyhledávání. Níže popíšeme některá z těchto zmírnění rizik. Budeme pokračovat v monitorování funkce Copilot v prostředích AI Bingu, abychom zlepšili výkon produktů a jejich zmírnění.  

Postupné uvolňování, průběžné vyhodnocování. Snažíme se neustále učit a vylepšovat náš zodpovědný přístup k umělé inteligenci s tím, jak se naše technologie a chování uživatelů vyvíjejí. Naše strategie postupného vydávání verzí je klíčovou součástí bezpečného přesunu naší technologie z testovacích prostředí do světa a zavázali jsme se k promyšlenému a promyšlenému procesu, který zajistí výhody copilotu v Bingu. Omezení počtu lidí s přístupem během období Preview nám umožnilo zjistit, jak uživatelé používají Copilot v Bingu, včetně toho, jak ho můžou zneužít, abychom se mohli pokusit zmírnit vznikající problémy před širším vydáním. Vyžadujeme například, aby se uživatelé před přístupem k novému prostředí Bingu ověřili pomocí svého účtu Microsoft. Neověření uživatelé mají přístup pouze k omezené verzi Preview prostředí. Tyto kroky odrazují od zneužití a pomáhají nám (podle potřeby) přijmout odpovídající opatření v reakci na porušení pravidel chování.  V aplikaci Copilot v Bingu provádíme změny každý den, abychom zlepšili výkon produktů, vylepšili stávající zmírnění rizik a implementovali nová omezení rizik v reakci na naše poznatky v období Preview.  

Uzemnění ve výsledcích hledání Jak je uvedeno výše, funkce Copilot v Bingu je navržená tak, aby poskytovala odpovědi podporované informacemi ve výsledcích hledání na webu, když uživatelé hledají informace. Systém například poskytuje text z hlavních výsledků hledání a pokyny prostřednictvím metapromptu k uzemnění odpovědi. Při sumarizaci obsahu z webu však copilot v Bingu může do své odpovědi zahrnout informace, které se nenachází v jeho vstupních zdrojích. Jinými slovy, může vést k neuzemněným výsledkům. Naše raná hodnocení ukázala, že neupravené výsledky v chatu můžou být u určitých typů výzev nebo témat častější než u jiných, jako jsou například matematické výpočty, finanční nebo tržní informace (například výnosy společnosti, údaje o výkonu akcií) a informace, jako jsou přesná data událostí nebo konkrétní ceny položek. Uživatelé by při prohlížení souhrnných výsledků hledání, ať už na stránce výsledků hledání, nebo v prostředí chatu, měli vždy dávat pozor a měli by používat svůj nejlepší úsudek. Přijali jsme několik opatření ke zmírnění rizika, že se uživatelé mohou ve scénářích souhrnu a chatu příliš spoléhat na neuzemně vygenerovaný obsah. Například odpovědi ve službě Copilot ve službě Bing, které jsou založené na výsledcích hledání, zahrnují odkazy na zdrojové weby, aby uživatelé mohli odpověď ověřit a získat další informace. Uživatelům se také poskytuje explicitní upozornění, že pracují se systémem AI, a doporučuje se, aby zkontrolovali zdrojové materiály webových výsledků, které jim pomůžou při nejlepším úsudku.  

Klasifikátory založené na umělé inteligenci a metaprompování ke zmírnění potenciálních rizik nebo zneužití. Používání LLM může vést k problematickému obsahu, který by mohl vést k rizikům nebo zneužití. Příkladem může být výstup související se sebepoškozování, násilím, grafickým obsahem, duševním vlastnictvím, nepřesnými informacemi, nenávistnou řečí nebo textem, který by mohl souviset s nelegálními aktivitami. Klasifikátory a metaprompování jsou dva příklady zmírnění rizik, které byly implementovány ve službě Copilot v Bingu, aby se snížilo riziko těchto typů obsahu. Klasifikátory klasifikují text tak, aby označovaly různé typy potenciálně škodlivého obsahu ve vyhledávacích dotazech, výzev chatu nebo generovaných odpovědích. Bing používá klasifikátory založené na umělé inteligenci a filtry obsahu, které platí pro všechny výsledky hledání a relevantní funkce. Navrhli jsme další klasifikátory výzev a filtry obsahu speciálně pro řešení možných rizik vyvolaných funkcemi Služby Copilot ve službě Bing. Příznaky vedou k potenciálním zmírněním rizik, jako je nevracení vygenerovaného obsahu uživateli, přesměrování uživatele na jiné téma nebo přesměrování uživatele na tradiční vyhledávání. Metaprompování zahrnuje poskytování pokynů pro model, které budou řídit jeho chování, včetně toho, aby se systém choval v souladu s principy AI společnosti Microsoft a očekáváními uživatelů. Metaprompt může například obsahovat řádek typu "komunikujte ve zvoleném jazyce uživatele".   

Ochrana osobních údajů ve vizuálním vyhledávání v Copilotu v Bingu Když uživatelé v rámci výzvy k chatu nahrají obrázek, funkce Copilot v Bingu před odesláním obrázku do modelu AI použije technologii rozmazání tváře. Rozostření obličeje se používá k ochraně soukromí jednotlivců na obrázku. Technologie rozostření tváře spoléhá na kontextové stopy, aby určila, kde se má rozostřit, a pokusí se rozostřit všechny tváře. Když jsou tváře rozmazané, model AI může porovnávat zadaný obrázek s veřejně dostupnými obrázky na internetu. V důsledku toho může například Copilot v Bingu identifikovat slavného basketbalového hráče z fotky tohoto hráče na basketbalovém hřišti tak, že vytvoří číselnou reprezentaci, která odráží číslo dresu hráče, barvu dresu, přítomnost basketbalového míče atd. Copilot v Bingu neukládá číselná vyjádření lidí z nahraných obrázků a nesdílí je s třetími stranami. Copilot ve službě Bing používá číselné reprezentace obrázků, které uživatelé nahrají jenom za účelem reakce na výzvy uživatelů, a pak jsou odstraněny do 30 dnů po ukončení chatu.    

Pokud uživatel požádá copilot v Bingu o informace o nahraném obrázku, odpovědi chatu můžou odrážet dopad rozostření tváře na schopnost modelu poskytovat informace o nahraném obrázku. Například Copilot v Bingu může někoho popsat jako rozmazanou tvář.    

Omezení posunu konverzace. Během období preview jsme se dozvěděli, že velmi dlouhé chatovací relace můžou vést k opakovaným, neužitečné nebo nekonzistentní odpovědi se službou Copilot v zamýšleném tónu Bingu. Abychom tento posun konverzace vyřešili, omezili jsme počet tahů (výměn, které obsahují otázku uživatele i odpověď od Copilotu v Bingu) na relaci chatu. Nadále vyhodnocujeme další přístupy ke zmírnění tohoto problému.  

Prompt enrichment. V některých případech může být výzva uživatele nejednoznačná. Když k tomu dojde, copilot v Bingu může pomocí LLM pomoct sestavit další podrobnosti ve výzvě, aby se zajistilo, že uživatelé dostanou hledanou odpověď. Takové rychlé rozšiřování nespoléhá na žádné znalosti uživatele nebo jeho předchozí vyhledávání, ale na model AI. Tyto revidované dotazy budou viditelné v historii chatu uživatele a stejně jako ostatní hledání se dají odstranit pomocí ovládacích prvků v produktu.  

Návrh založený na uživatelích a zásahy do uživatelského prostředí Návrh založený na uživatelích a uživatelská prostředí jsou základním aspektem přístupu Microsoftu k zodpovědné umělé inteligenci. Cílem je zakořenit návrh produktu podle potřeb a očekávání uživatelů. Při první interakci uživatelů se službou Copilot v Bingu nabízíme různé touchpointy navržené tak, aby jim pomohly porozumět možnostem systému, odhalit jim, že copilot v Bingu využívá umělou inteligenci, a informovat o omezeních. Prostředí je navržené tak, aby uživatelům pomohlo maximálně vyžít Copilot v Bingu a minimalizovat riziko nadměrného vztahu. Prvky tohoto prostředí také pomáhají uživatelům lépe porozumět službě Copilot v Bingu a jejich interakcím s ním. Patří mezi ně návrhy chatu specifické pro zodpovědnou AI (například jak Bing používá AI? Proč Copilot v Bingu nereaguje na některá témata?), vysvětlení omezení, způsoby, jak uživatelé můžou zjistit více o tom, jak systém funguje, a nahlásit zpětnou vazbu a snadno procházetelné odkazy, které se zobrazují v odpovědích, aby uživatelům ukázaly výsledky a stránky, na kterých jsou odpovědi založeny.  

Zpřístupnění informací pomocí umělé inteligence. Copilot v Bingu poskytuje několik dotykových bodů pro smysluplné zpřístupnění informací o umělé inteligenci, kde jsou uživatelé upozorněni, že komunikují se systémem AI, a také příležitosti k získání dalších informací o službě Copilot v Bingu. Když uživatelům tyto znalosti umožníte, pomůžete jim vyhnout se přílišným závislostem na umělé inteligenci a seznámit se se silnými a omezeními systému.  

Původ médií.Microsoft Designer povolil funkci "Přihlašovací údaje obsahu", která používá kryptografické metody k označení zdroje neboli "původu" všech obrázků generovaných pomocí umělé inteligence vytvořených v návrháři. Funkce neviditelného digitálního vodoznaku zobrazuje zdroj, čas a datum původního vytvoření a tyto informace nelze změnit. Tato technologie využívá standardy stanovené Sdružením pro obsah a pravost (C2PA), které přidávají další vrstvu důvěry a transparentnosti pro obrázky generované AI. Microsoft je spoluautorem C2PA a přispěl základní technologií původu digitálního obsahu. 

Podmínky použití a pravidla chování. Tento prostředek řídí použití Copilotu v Bingu. Uživatelé by se měli řídit Podmínkami použití a Pravidly chování, které je mimo jiné informují o přípustném a nepřípustném použití a o důsledcích porušení podmínek. Podmínky použití také poskytují další informace pro uživatele a slouží uživatelům jako užitečné informace o službě Copilot v Bingu.   

Provoz a rychlá reakce. Funkci Copilot používáme také v probíhajících monitorovacích a provozních procesech bingu k řešení případů, kdy služba Copilot ve službě Bing obdrží signály nebo obdrží zprávu s informací o možném zneužití nebo porušení podmínek použití nebo pravidel chování.  

Zpětná vazba, monitorování a dohled. Prostředí Copilot v Bingu staví na existujících nástrojích, které uživatelům umožňují odesílat zpětnou vazbu a nahlásit obavy, které kontrolují provozní týmy Microsoftu. Provozní procesy Bingu se také rozšířily tak, aby vyhovovaly funkcím copilotu v prostředí Bingu, například aktualizací stránky Nahlásit problém tak, aby zahrnovala nové typy obsahu, které uživatelé generují pomocí modelu.   

Náš přístup k identifikaci, měření a zmírnění rizik se bude s dalšími informacemi dál vyvíjet a na základě zpětné vazby shromážděné během období Preview už provádíme vylepšení.     

Automatizovaná detekce obsahu. Když uživatelé nahrají obrázky v rámci výzvy k chatu, copilot v Bingu nasadí nástroje pro detekci sexuálního zneužívání a zneužívání dětí (CSEAI), zejména technologie porovnávání hodnot hash PhotoDNA. Společnost Microsoft vyvinula aplikaci PhotoDNA, která pomáhá najít duplicity známých CSEAI. Microsoft hlásí všechny zjevné CSEAI národnímu centru pro pohřešované a zneužítelné děti (NCMEC), jak to vyžadují zákony USA. Když uživatelé nahrají soubory k analýze nebo zpracování, copilot nasadí automatizovanou kontrolu, aby zjistil obsah, který by mohl vést k rizikům nebo zneužití, například text, který může souviset s nelegálními aktivitami nebo škodlivým kódem.

Ochrana osobních údajů  

Dlouhodobé přesvědčení Microsoftu, že ochrana osobních údajů je základním lidským právem, informovalo každou fázi vývoje a nasazení Copilotu v bingu. Naše závazky k ochraně soukromí všech uživatelů, včetně poskytování transparentnosti a kontroly nad jejich daty jednotlivcům a záměrné integrace ochrany osobních údajů prostřednictvím minimalizace dat a omezení účelu, jsou pro Copilot v Bingu základem. S vývojem našeho přístupu k poskytování copilotu v prostředích generativní umělé inteligence Bingu budeme neustále zkoumat, jak nejlépe chránit soukromí. Tento dokument se bude průběžně aktualizovat. Další informace o tom, jak Společnost Microsoft chrání soukromí uživatelů, najdete v Prohlášení společnosti Microsoft o zásadách ochrany osobních údajů.  

Společnost Microsoft nadále zvažuje potřeby dětí a mladých lidí jako součást posouzení rizik nových funkcí generativní umělé inteligence v Copilotu ve službě Bing. Všechny dětské účty Microsoft, které identifikují uživatele mladšího 13 let nebo jak je jinak uvedeno v místních zákonech, se nemůžou přihlásit a získat tak přístup k úplnému novému prostředí Bingu.   

Jak je popsáno výše, pro všechny uživatele jsme implementovali bezpečnostní opatření, která zmírňují potenciálně škodlivý obsah. V nástroji Copilot v Bingu jsou výsledky nastavené jako v přísném režimu bezpečného hledání Bingu, který má nejvyšší úroveň bezpečnostní ochrany v hlavním vyhledávání Bingu, což brání uživatelům, včetně dospívajících uživatelů, aby byli vystaveni potenciálně škodlivému obsahu. Kromě informací, které jsme uvedli v tomto dokumentu a v nejčastějších dotazech týkajících se funkcí chatu, najdete další informace o tom, jak funkce Copilot v Bingu funguje, aby ve výsledcích hledání nereagovaly na neočekávaný urážlivý obsah.  

Společnost Microsoft se zavázala, že nebude poskytovat přizpůsobenou reklamu založenou na chování online dětem, jejichž datum narození v jejich účtu Microsoft je identifikuje jako mladší 18 let. Tato důležitá ochrana se rozšíří i na reklamy v Copilotu ve funkcích Bingu. Uživatelům se můžou zobrazovat kontextové reklamy na základě dotazu nebo výzvy použité k interakci s Bingem.  

Abychom uvolnili transformační potenciál generativní umělé inteligence, musíme vybudovat důvěru v technologii tím, že jednotlivcům umožníme pochopit, jak se jejich data používají, a poskytnout jim smysluplné volby a kontrolu nad jejich daty. Copilot v Bingu je navržený tak, aby upřednostňoval lidské zastoupení, prostřednictvím poskytování informací o tom, jak produkt funguje a jeho omezení, a rozšířením našich robustních spotřebitelských voleb a ovládacích prvků na Copilot ve funkcích Bingu.   

Prohlášení společnosti Microsoft o zásadách ochrany osobních údajů poskytuje informace o našich transparentních postupech ochrany osobních údajů pro ochranu našich zákazníků a obsahuje informace o ovládacích prvcích, které našim uživatelům umožňují zobrazit a spravovat jejich osobní údaje. Abychom zajistili, že uživatelé budou mít při interakci s novými konverzačními funkcemi Bingu potřebné informace, informujeme uživatele v produktech o tom, že se zabývají produktem AI, a poskytujeme odkazy na další nejčastější dotazy a vysvětlení toho, jak tyto funkce fungují. Microsoft bude i nadále naslouchat názorům uživatelů a bude přidávat další podrobnosti o konverzačních funkcích Bingu, aby bylo možno porozumět tomu, jak produkt funguje.   

Společnost Microsoft také poskytuje svým uživatelům robustní nástroje pro uplatnění jejich práv na jejich osobní údaje. Pro data shromažďovaná společností Copilot ve službě Bing, a to i prostřednictvím uživatelských dotazů a výzev, poskytuje řídicí panel ochrany osobních údajů microsoftu ověřeným (přihlášeným) uživatelům nástroje pro uplatnění jejich práv subjektu údajů, včetně poskytování možnosti uživatelům zobrazit, exportovat a odstranit uloženou historii konverzací. Společnost Microsoft nadále používá zpětnou vazbu k tomu, jak chce spravovat nové prostředí Bingu, a to i prostřednictvím prostředí pro správu dat v kontextu.   

Copilot ve službě Bing také respektuje požadavky v rámci evropského práva být zapomenut, a to v návaznosti na proces, který Microsoft vyvinul a zdokonalil pro tradiční vyhledávací funkce Bingu. Všichni uživatelé zde mohou hlásit obavy týkající se generovaného obsahu a odpovědí a naši evropští uživatelé můžou tento formulář použít k odeslání žádostí o blokování výsledků hledání v Evropě v rámci práva být zapomenuti.   

Funkce Copilot v Bingu bude respektovat volby ochrany osobních údajů uživatelů, včetně těch, které byly dříve provedeny službou Bing, jako je například souhlas se shromažďováním a používáním dat, který je požadován prostřednictvím bannerů a ovládacích prvků souborů cookie, které jsou k dispozici na řídicím panelu microsoftu pro ochranu osobních údajů. Abychom pomohli umožnit samostatnost uživatelů a možnost činit informovaná rozhodnutí, použili jsme náš interní proces kontroly k pečlivému prozkoumání toho, jak jsou možnosti prezentovány uživatelům. 

Kromě ovládacích prvků dostupných prostřednictvím řídicího panelu microsoftu pro ochranu osobních údajů, které uživatelům umožňují zobrazit, exportovat a odstranit historii hledání, včetně součástí historie chatu, mají ověření uživatelé, kteří v produktu povolili funkci Historie chatu, možnost zobrazit a stáhnout historii chatu prostřednictvím ovládacích prvků v produktu. Uživatelé můžou vymazat konkrétní chaty z historie chatu nebo kdykoli zcela vypnout funkci Historie chatu na stránce Nastavení Bingu. Uživatelé se také můžou rozhodnout, jestli chtějí povolit přizpůsobení, aby získali přístup k přizpůsobenému prostředí s přizpůsobenými odpověďmi. Uživatelé se můžou kdykoliv odhlásit a odhlásit z přizpůsobení v Nastavení chatu na stránce Nastavení Bingu.  Vymazání konkrétních chatů z historie chatu zabrání jejich použití k přizpůsobení.    Další informace o historii chatu a přizpůsobení jsou uživatelům k dispozici v nejčastějších dotazech ke službě Copilot v Bingu. 

Služba Copilot v Bingu byla vytvořena s ohledem na ochranu osobních údajů, takže osobní údaje se shromažďují a používají pouze podle potřeby a neuchovávají se déle, než je nezbytné. Jak je uvedeno výše, vizuální vyhledávání ve funkci Copilot v Bingu nasadí mechanismus, který rozostří tváře na obrázcích v době nahrání uživateli, aby se obrázky obličeje dále nezpracovávají ani neukládají. Další informace o osobních údajích, které Bing shromažďuje, jak se používají a jak se ukládají a odstraňují, jsou k dispozici v Prohlášení společnosti Microsoft o zásadách ochrany osobních údajů, které také poskytuje informace o nových funkcích chatu služby Bing.   

Copilot ve službě Bing má zásady uchovávání a odstraňování dat, které pomáhají zajistit, aby osobní údaje shromážděné prostřednictvím chatovacích funkcí Bingu byly uchovávány pouze po dobu, po kterou je potřeba.   

Budeme se i nadále učit a vyvíjet náš přístup při poskytování služby Copilot v Bingu, a zároveň budeme pokračovat v práci napříč disciplínami na sladění našich inovací umělé inteligence s lidskými hodnotami a základními právy, včetně ochrany mladých uživatelů a soukromí.   

Copilot s ochranou obchodních dat 

Soubor Copilot s komerční ochranou dat, dříve známý jako Chat Bing Enterprise ("BCE"), vydal Microsoft ve verzi Public Preview v červenci 2023 jako bezplatný doplněk pro určité zákazníky M365. Copilot s ochranou komerčních dat je prostředí vyhledávání na webu vylepšené AI pro podnikové koncové uživatele. 

Stejně jako u Copilotu v Bingu platí, že když koncový uživatel Copilotu s ochranou komerčních dat zadá do rozhraní výzvu, výzva, okamžitá konverzace, hlavní výsledky hledání a metaprompt se odešlou jako vstupy do LLM. Model vygeneruje odpověď pomocí výzvy a historie okamžitých konverzací ke kontextu požadavku, metaprompt pro sladění odpovědí s principy AI společnosti Microsoft a očekáváními uživatelů a výsledky hledání pro základní odpovědi v existujícím vysoce hodnoceném obsahu z webu. Funguje to stejně jako Copilot ve službě Bing, jak je popsáno výše v tomto dokumentu, s výjimkou toho, že Copilot s ochranou komerčních dat spoléhá pouze na okamžitou historii konverzací (ne na historii nedávných konverzací), protože uložená historie chatu není aktuálně podporovanou funkcí. Návrhář a vizuální vyhledávání jsou nyní k dispozici v této verzi. 

Stejně jako u jiných transformačních technologií není využití výhod umělé inteligence bez rizika a základní část programu Odpovědné AI od Microsoftu je navržená tak, aby identifikovala potenciální rizika, změřila jejich sklony k výskytu a sestavila zmírnění rizik, která je řeší. Opět platí, že výše uvedený popis úsilí Microsoftu o identifikaci, měření a zmírnění potenciálních rizik pro Copilot v Bingu platí také pro tuto verzi, s určitými vysvětleními ohledně zmírnění rizik popsaných níže: 

Postupné uvolňování, průběžné vyhodnocování. Podobně jako u Služby Copilot Bing jsme u služby Copilot s ochranou komerčních dat použili také přístup k přírůstkovým vydáváním. 18. července 2023 byl soubor Copilot s ochranou obchodních dat k dispozici jako bezplatná verze Preview pro oprávněné podnikové zákazníky s konkrétními účty M365, které si můžou zapnout pro své podnikové koncové uživatele. Třicet (30) dnů po oznámení oprávněným podnikovým zákazníkům se služba Copilot s komerční ochranou dat stala pro stejné zákazníky jako výchozí. Copilot s ochranou obchodních dat je od té doby také k dispozici pro konkrétní vzdělávací účty M365 fakulty. Copilot s ochranou obchodních dat se stal obecně dostupným pro některé podnikové zákazníky od 1. prosince 2023. V budoucnu plánujeme rozšířit přístup ke službě Copilot s ochranou komerčních dat na další uživatele Microsoft Entra ID.

Podmínky použití a pravidla chování. Koncoví uživatelé copilotu s komerční ochranou dat se musí řídit podmínkami použití koncového uživatele. Tyto Podmínky použití informují koncové uživatele o přípustném a nepřípustném použití a o důsledcích porušení podmínek.  

Provoz a rychlá reakce. Funkci Copilot používáme také v probíhajících monitorovacích a provozních procesech bingu k řešení případů, kdy společnost Copilot s ochranou obchodních dat obdrží signály nebo obdrží zprávu s informací o možném zneužití nebo porušení podmínek použití koncového uživatele

Zpětná vazba, monitorování a dohled. Copilot s komerční ochranou dat používá stejné nástroje jako Copilot v Bingu k odesílání zpětné vazby a hlášení obav, které jsou kontrolovány provozními týmy Microsoftu. Funkce Copilot v provozních procesech Bingu se také rozšířily tak, aby vyhovovaly funkcím copilotu s komerční ochranou dat, například aktualizací stránky Nahlásit problém tak, aby zahrnovala nové typy obsahu, které uživatelé generují pomocí modelu.  

Pokud chcete zajistit, aby koncoví uživatelé měli informace, které potřebují při interakci se službou Copilot s ochranou komerčních dat, je v dolní části tohoto dokumentu k dispozici produktová dokumentace, včetně stránek s nejčastějšími dotazy a dalšími informacemi. 

Výzvy a odpovědi vygenerované koncovými uživateli ve službě Copilot s ochranou komerčních dat se zpracovávají a ukládají v souladu se standardy pro zpracování podnikových dat. Nabídka Copilot s komerční ochranou dat je v současné době dostupná jenom podnikovým zákazníkům a jejich ověřeným dospělým koncovým uživatelům, proto neočekáváme, že by děti nebo mladí lidé byli v tuto chvíli koncovými uživateli copilotu s ochranou obchodních dat. Kromě toho Copilot s ochranou obchodních dat neposkytuje koncovým uživatelům žádnou behaviorálně cílenou reklamu. Místo toho jsou všechny zobrazené reklamy pouze kontextově relevantní reklamy.  

Další informace

Tento dokument je součástí širšího úsilí Microsoftu o uvedení našich principů umělé inteligence do praxe. Další informace najdete tady:

Přístup Microsoftu k zodpovědné umělé inteligenci

Zodpovědná úroveň AI od Microsoftu

Zdroje informací o zodpovědné umělé inteligenci Microsoftu  

Výukové kurzy Microsoft Azure o zodpovědné umělé inteligenci  

O tomto dokumentu  

© 2023 Microsoft. Všechna práva vyhrazena. Tento dokument je poskytován "tak, jak je", a pouze pro informační účely. Informace a názory vyjádřené v tomto dokumentu, včetně adres URL a dalších odkazů na webové stránky, se mohou změnit bez předchozího upozornění. Rizika spojená s jeho používáním nesete vy. Některé příklady jsou pouze pro ilustraci a jsou fiktivní. Žádné skutečné spojení není zamýšleno ani vyvozeno.  

Potřebujete další pomoc?

Chcete další možnosti?

Prozkoumejte výhody předplatného, projděte si školicí kurzy, zjistěte, jak zabezpečit své zařízení a mnohem více.

Komunity vám pomohou klást otázky a odpovídat na ně, poskytovat zpětnou vazbu a vyslechnout odborníky s bohatými znalostmi.