Prihláste sa s kontom Microsoft
Prihláste sa alebo si vytvorte konto.
Dobrý deň,
Vyberte iné konto.
Máte viacero kont
Vyberte konto, s ktorým sa chcete prihlásiť.

Posledná aktualizácia: február 2024

Základy funkcie Copilot v Bingu   

Úvod  

Vo februári 2023 spoločnosť Microsoft spustila nový Bing, vyhľadávanie na webe vylepšené umelou inteligenciou. Podporuje používateľov tým, že sumarizuje výsledky vyhľadávania na webe a poskytuje funkciu chatu. Používatelia môžu vytvárať kreatívny obsah, ako sú napríklad básne, vtipy, príbehy a obrázky pomocou Tvorca obrázkov Bingu. Nový Bing vylepšené umelou inteligenciou funguje na rôznych pokročilých technológiách od spoločností Microsoft a OpenAI vrátane GPT-4, najmodernejšieho veľkého jazykového modelu (LLM) a DALL-E, modelu hlbokého učenia na generovanie digitálnych obrázkov z popisov v prirodzenom jazyku (oboje od spoločnosti OpenAI). S oboma modelmi sme mesiace pred verejným vydaním pracovali, aby sme vyvinuli prispôsobenú množinu schopností a techník k tejto špičkovej technológii AI a vyhľadávaniu na webe v novom Bingu.  V novembri 2023 spoločnosť Microsoft premenovala nový Bing na Copilot v Bingu.

V spoločnosti Microsoft berieme náš záväzok týkajúci sa zodpovedného používania umelej inteligencie vážne. Prostredie Copilot v Bingu bolo vyvinuté v súlade s princípmi AI spoločnosti Microsoft, štandardom zodpovednej AI spoločnosti Microsoft a v spolupráci so zodpovednými odborníkmi na AI v celej spoločnosti vrátane oddelenia pre zodpovednú AI spoločnosti Microsoft, našich inžinierskych tímov, výskumu spoločnosti Microsoft a výboru Aether. Viac o zodpovednej AI v spoločnosti Microsoft sa dozviete tu.  

V tomto dokumente popisujeme náš prístup k zodpovednej AI pre Copilot v Bingu. Pred vydaním sme prijali najmodernejšie metódy na identifikáciu, meranie a zmiernenie potenciálnych rizík a zneužitia systému a na zabezpečenie jeho výhod pre používateľov. Keďže sme od prvého vydania funkcie Copilot v Bingu pokračovali vo vývoji, pokračovali sme aj v učení a zlepšovaní našej zodpovednej AI. Tento dokument bude pravidelne aktualizovaný, aby informoval o našich vyvíjajúcich sa procesoch a metódach.   

Kľúčové výrazy  

Copilot v Bingu je vyhľadávanie na webe vylepšené umelou inteligenciou. Keďže beží na výkonnej novej technológii, začneme definovaním niektorých kľúčových pojmov.  

Modely strojového učenia, ktoré pomáhajú triediť údaje do označených tried alebo kategórií informácií. Vo funkcii Copilot v Bingu je jedným zo spôsobov, ako používame klasifikátory, pomoc pri zisťovaní potenciálne škodlivého obsahu odoslaného používateľmi alebo generovaného systémom, aby sa obmedzilo generovanie tohto obsahu a nesprávne používanie alebo zneužitie systému. 

Funkcia Copilot v Bingu je založená na výsledkoch vyhľadávania na webe, keď používatelia hľadajú informácie. Znamená to, že odpoveď na dotaz alebo výzvu používateľa sústredíme na vysoko hodnotený obsah z webu a poskytujeme odkazy na webové stránky, kde sa používatelia dozvedia viac. Bing zoraďuje obsah vyhľadávania na webe pomocou prísneho vyhodnocovania faktorov ako relevantnosť, kvalita, dôveryhodnosť a aktuálnosť. Tieto koncepty podrobnejšie popisujeme v časti Ako Bing poskytuje výsledky vyhľadávania (pozrite si časť „Kvalita a dôveryhodnosť“ v časti „Ako Bing hodnotí výsledky vyhľadávania“).   

Za odôvodnené odpovede považujeme odpovede funkcie Copilot v Bingu, v ktorých sú vyjadrenia podporené informáciami obsiahnutými vo vstupných zdrojoch, ako sú výsledky vyhľadávania na webe na základe dotazy alebo výzvy, vedomostná báza Bingu s overenými informáciami a v prípade chatu nedávna história konverzácií z chatu. Neodôvodnené odpovede sú také, v ktorých vyhlásenie nie je podložené týmito vstupnými zdrojmi.  

Veľké jazykové modely (LLM) sú v tomto kontexte modely AI, ktoré sú trénované na veľkom množstve textových údajov na predpovedanie slov v sekvenciách. LLM dokážu vykonávať rôzne úlohy, ako je generovanie textu, zhrnutie, preklad, klasifikácia a ďalšie.  

Meta výzva je program, ktorý slúži na usmernenie správania systému. Časti meta výzvy pomáhajú zosúladiť správanie systému so zásadami AI spoločnosti Microsoft a očakávaniami používateľov. Meta výzva môže napríklad obsahovať riadok ako „komunikuj v jazyku, ktorý si používateľ vyberie“.  

Metóda alebo kombinácia metód určených na zníženie potenciálnych rizík, ktoré môžu vzniknúť pri používaní funkcií riadených umelou inteligenciou v kopilote v Bingu.  

Textové, hlasové, obrázkové alebo iné povolené dotazy, ktoré používateľ odošle Bingu ako vstup do modelu, ktorý umožňuje nové generatívne funkcie riadené umelou inteligenciou v Bingu. Používateľ môže napríklad zadať nasledujúcu výzvu:  

V septembri plánujem výlet k nášmu výročiu. Na aké miesta môžeme ísť, aby boli do 3 hodín letu z londýnskeho Heathrow?”  

Text, ktorý používateľ odošle do Bingu z vyhľadávacieho panela na vyhľadávanie na webe. V tomto dokumente rozlišujeme dotaz (pre vyhľadávanie na webe) od výzvu (pre generatívne funkcie riadené umelou inteligenciou v Bingu). Používateľ môže napríklad zadať nasledujúci dopyt na vyhľadávanie na webe:  

cestovateľské destinácie blízko londýnskeho letiska Heathrow“  

Techniky používané odborníkmi na posúdenie obmedzení a slabých miest systému a na testovanie účinnosti plánovaných zmiernení. Testovanie červeného tímu a záťažové testovanie sa používajú na identifikáciu potenciálnych rizík a líšia sa od systematického merania rizík.   

Text, obrázok, grafy atď., ktoré funkcia Copilot v Bingu vygeneruje ako odpoveď na výzvu. Synonymá pre „odpoveď“ zahŕňajú „dokončenie“, „generovanie“ a „odpoveď“. Bing môže napríklad poskytnúť nasledujúcu odpoveď na výzvu, ktorú sme použili pri definícii „výzvy“ vyššie:   

Gratulujem k výročiu! �� Existuje mnoho miest, kam môžete ísť a ktoré sú vzdialené 3 hodiny letu z londýnskeho Heathrow. Podľa jedného zdroja sú niektoré z víkendových únikov z Londýna do troch hodín lietadlom Bilbao, Kodaň, Reykjavík a Štokholm 1, 2. Ďalší zdroj naznačuje, že niektoré z najlepších miest, kam ísť v Európe v septembri, sú Krakov, Florencia a Lisabon 3, 4. Môžete si tiež pozrieť priame lety z londýnskeho Heathrow do rôznych destinácií a zistiť, či vás niečo neosloví 5. Prajem vám krásny výlet!”  

Zamýšľané použitia a nové funkcie umelej inteligencie  

Účelom funkcie Copilot v Bingu je spájať používateľov s relevantnými výsledkami vyhľadávania, kontrolovať výsledky z celého webu s cieľom nájsť a zhrnúť odpovede, ktoré používatelia hľadajú, pomôcť používateľom vylepšiť ich výskum, aby získali odpovede pomocou chatu, a podnietiť kreativitu tým, že používateľom pomáha vytvárať obsah. Funkcie generatívnej AI funkcie Copilot v Bingu nižšie podporujú cieľ stať sa kopilotom pre web založeným na umelej inteligencii.  

Sumarizácia. Keď používatelia zadajú vyhľadávací dotaz do funkcie Copilot v Bingu, Bing tento dotaz spracuje, vykoná jedno alebo viac webových vyhľadávaní a použije najlepšie výsledky na vygenerovanie súhrnu informácií, ktoré sa zobrazia používateľom. Tieto súhrny obsahujú odkazy, ktoré používateľom pomáhajú vidieť a ľahko pristupovať k výsledkom vyhľadávania, ktoré sú základom súhrnu. Súhrny sa môžu zobraziť na pravej strane stránky s výsledkami vyhľadávania a v rámci chatu.  

Funkcia chatu. Okrem sumarizácie môžu používatelia chatovať s funkciou Copilot v Bingu prostredníctvom textového, obrazového alebo hlasového vstupu, klásť doplňujúce otázky na objasnenie vyhľadávania a hľadať nové informácie a odosielať výzvy na generovanie kreatívneho obsahu. Keď funkcia Copilot v Bingu v odpovedi sumarizuje výsledky vyhľadávania, v chate sú zahrnuté aj referencie.   

Generovanie kreatívneho obsahu. V rámci chatu aj na stránke vyhľadávania môžu používatelia vytvárať básne, vtipy, príbehy, obrázky a ďalší obsah s pomocou funkcie Copilot v Bingu.  Obrázky vytvára Designer (bývalá Tvorca obrázkov Bingu) a používatelia majú k tejto funkcii prístup prostredníctvom domovskej stránky Designer, ako aj stránky Kopilot. 

Ako funguje funkcia Copilot v Bingu?  

S funkciou Copilot v Bingu sme vyvinuli inovatívny prístup, ktorý prináša najmodernejšie LLM do vyhľadávania na webe. Keď používateľ zadá výzvu vo funkcii Copilot v Bingu, výzva, nedávna história konverzácie, meta výzva a najlepšie výsledky vyhľadávania sa odošlú ako vstupy do LLM. Model vygeneruje odpoveď pomocou výzvy používateľa a nedávnej histórie konverzácií na kontextualizáciu požiadavky, meta výzvy na zosúladenie odpovedí so zásadami AI spoločnosti Microsoft a očakávaniami používateľov a výsledkami hľadania na základe odpovedí v existujúcom vysokohodnotnom obsahu z webu.   

Odpovede sú používateľom prezentované v niekoľkých rôznych formátoch, ako sú tradičné odkazy na webový obsah, súhrny generované AI, obrázky a odpovede na chat. Sumarizácie a odpovede v chate, ktoré sa spoliehajú na výsledky hľadania na webe, budú obsahovať odkazy a pod odpoveďami sekciu „Ďalšie informácie“ s odkazmi na výsledky hľadania, ktoré boli použité na odôvodnenie odpovede. Používatelia môžu kliknúť na tieto odkazy, aby sa dozvedeli viac o téme a informáciách použitých na odôvodnenie súhrnu alebo odpovede v chate.    

V prostredí Copilot môžu používatelia vykonávať vyhľadávanie na webe konverzačne pridaním kontextu do výzvy a interakciou s odpoveďami systému, aby mohli ďalej špecifikovať svoje záujmy vyhľadávania. Používateľ môže napríklad klásť doplňujúce otázky, požadovať dodatočné objasňujúce informácie alebo odpovedať systému konverzačným spôsobom. V rámci chatovania si používatelia môžu vybrať odpoveď aj z vopred napísaných návrhov, ktoré nazývame návrhy chatu. Tieto tlačidlá sa zobrazujú po každej odpovedi od Copilot a poskytujú návrhy na pokračovanie v konverzácii v rámci chatu. Návrhy chatu sa tiež zobrazujú vedľa súhrnného obsahu na stránke s výsledkami hľadania ako vstupný bod pre chatovanie.  

Copilot v Bing tiež umožňuje používateľovi vytvárať príbehy, básne, texty piesní a obrázky s pomocou Bingu. Keď funkcia Copilot v Bingu zistí, že používateľ má v úmysle generovať kreatívny obsah (napríklad výzva sa začína slovami „napíš mi...“), systém vo väčšine prípadov vygeneruje obsah, ktorý reaguje na výzvu používateľa. Podobne, keď funkcia Copilot v Bingu zistí, že používateľ má v úmysle vygenerovať obrázok (napríklad výzva začína slovami „nakresli mi...“), systém vo väčšine prípadov vygeneruje obrázok v reakcii na výzvu používateľa. Vo Vizuálnom Search v prostredí chatu môžu používatelia pomocou obrázka nasnímaného fotoaparátom používateľa nahratého zo zariadenia používateľa alebo prepojeného z webu zobraziť v Bingu výzvu na kopírovanie, aby pochopili kontext, interpretovali a odpovedali na otázky týkajúce sa obrázka.  Používatelia môžu tiež nahrať svoje súbory do služby Copilot na interpretáciu, konverziu, spracovanie alebo výpočet informácií z nich. V Microsoft Designer prostredia, ku ktorému môžu používatelia získať prístup prostredníctvom funkcie Kopírovať v Bingu, môžu používatelia nielen generovať obrázky pomocou výziev, ale tiež meniť ich veľkosť alebo premýšľať, alebo vykonávať úpravy, ako je napríklad rozmazanie pozadia alebo zvýraznenie farieb. 

Používatelia s kontami Microsoft (MSA) majú teraz tiež možnosť prihlásiť sa na odber služby Copilot Pro, ktorá ponúka vylepšený zážitok vrátane zrýchleného výkonu, rýchlejšieho vytvárania obrázkov pomocou umelej inteligencie a čoskoro aj možnosti vytvárať si vlastné modely Copilot GPT. Služba Copilot Pro je momentálne dostupná v obmedzenom počte krajín a čoskoro plánujeme sprístupniť ju na ďalších trhoch.

Vo funkcii Copilot môžu používatelia pristupovať k modelom Copilot GPT. Kopilot GPT, rovnako ako Designer GPT, je vlastná verzia programu Microsoft Copilot na tému, ktorá je pre vás obzvlášť zaujímavá, ako je fitness, cestovanie a varenie, ktoré môžu pomôcť premeniť vágne alebo všeobecné nápady na konkrétnejšie výzvy s výstupmi vrátane textu a obrázkov. Používatelia vo funkcii Copilot vidia dostupné modely Copilot GPT a používatelia s kontami Copilot Pro budú mať čoskoro prístup k nástroju Copilot GPT Builder, čo je funkcia, ktorá umožňuje vytvárať a konfigurovať vlastné modely Copilot GPT. Zodpovedné zmiernenia rizík umelej inteligencie uvedené vyššie pre kopilot v Bingu sa vzťahujú na kopilot GPT.

Ďalšie informácie o tom, ako fungujú funkcia Copilot Pro a modely Copilot GPT, nájdete tu.

Copilot v Bingu sa snaží poskytovať rôznorodé a komplexné výsledky hľadania so záväzkom slobodného a otvoreného prístupu k informáciám. Zároveň naše úsilie o kvalitu produktov zahŕňa prácu na predchádzaní neúmyselnej propagácii potenciálne škodlivého obsahu používateľom. Ďalšie informácie o tom, ako Bing hodnotí obsah, vrátane toho, ako definuje relevantnosť a kvalitu a dôveryhodnosť webovej stránky, sú k dispozícii v časti „Pokyny pre správcov webu Bing“.   Ďalšie informácie o princípoch moderovania obsahu Bingom sú k dispozícii v časti „Ako Bing poskytuje výsledky hľadania“.   

V prostredí Kopilot vo Windowse môže aplikácia Copilot v Bingu pracovať s operačným systémom Windows a poskytovať zručnosti špecifické pre Windows, ako je napríklad zmena motívu alebo pozadia používateľa a zmena nastavení, ako je zvuk, Bluetooth a siete. Tieto funkcie umožňujú používateľovi konfigurovať jeho nastavenia a zlepšiť používateľské prostredie pomocou výziev v prirodzenom jazyku na llm. Funkcie špecifické pre aplikáciu je možné poskytovať aj z doplnkov aplikácií tretích strán. Tie môžu automatizovať opakujúce sa úlohy a dosiahnuť vyššiu efektivitu používateľov. Keďže llms môžu občas robiť chyby, príslušné výzvy na potvrdenie používateľa sú poskytnuté tak, aby používateľ je konečný arbiter zmien, ktoré môžu byť vykonané. 

Identifikácia, meranie a zmierňovanie rizík  

Rovnako ako ostatné transformačné technológie, aj využitie výhod umelej inteligencie nie je bez rizika a základná časť programu zodpovednej umelej inteligencie spoločnosti Microsoft je navrhnutá tak, aby identifikovala potenciálne riziká, merala ich sklon k vzniku a vytvárala zmierňujúce opatrenia na ich riešenie. Na základe našich zásad umelej inteligencie a nášho štandardu zodpovednej umelej inteligencie sme sa snažili identifikovať, merať a zmierňovať potenciálne riziká a zneužívanie kopilotu v Bingu a zároveň zabezpečiť transformačné a prospešné využitie, ktoré poskytuje nová skúsenosť. V nasledujúcich častiach popisujeme náš iteračný prístup na identifikáciu, meranie a zmiernenie potenciálnych rizík.   

Na úrovni modelu sa naša práca začala prieskumnými analýzami GPT-4 koncom leta 2022. Zahŕňalo to vykonanie rozsiahleho testovania bezpečnostným oddelením v spolupráci so spoločnosťou OpenAI. Toto testovanie bolo navrhnuté s cieľom posúdiť, ako by najnovšia technológia fungovala bez akýchkoľvek dodatočných záruk. Naším konkrétnym zámerom bolo v tom čase produkovať škodlivé reakcie, odhaliť potenciálne cesty zneužitia a identifikovať schopnosti a obmedzenia. Kombinované poznatky spoločností OpenAI a Microsoft prispeli k pokroku vo vývoji modelov a nám v spoločnosti Microsoft pomohli pochopiť riziká a prispeli k skorým stratégiám zmierňovania pre Copilot v Bingu.  

Okrem testovania bezpečnostným oddelením na úrovni modelu vykonal multidisciplinárny tím expertov množstvo kôl testovania bezpečnostným oddelením na úrovni aplikácie vo funkciách umelej inteligencie v rámci funkcie Copilot v Bingu predtým, ako ich sprístupnil verejnosti v obmedzenom vydaní vo verzii preview. Tento proces nám pomohol lepšie pochopiť, ako by systém mohli zneužiť aktéri so zlými úmyslami, a zlepšiť naše zmierňovania. Etickí záťažoví testeri tiež rozsiahle hodnotili nové funkcie Bingu z hľadiska nedostatkov a zraniteľností. Po vydaní sú nové funkcie AI v Bingu integrované do existujúcej infraštruktúry merania a testovania produktov inžinierskej organizácie Bingu. Napríklad testeri bezpečnostného oddelenia z rôznych oblastí a prostredí sa neustále a systematicky pokúšajú kompromitovať systém a ich zistenia sa používajú na rozšírenie množín údajov, ktoré Bing používa na zlepšenie systému.  

Testovanie červeného tímu a záťažové testovanie môže zobrazovať inštancie konkrétnych rizík, ale v produkčnom prostredí budú mať používatelia milióny rôznych druhov konverzácií s aplikáciou Copilot v Bingu. Okrem toho sú konverzácie viacnásobné a kontextové a identifikácia škodlivého obsahu v rámci konverzácie je zložitá úloha. Na lepšie pochopenie a riešenie potenciálu rizík v aplikácii Copilot v Bing AI prostrediach sme vyvinuli ďalšie zodpovedné metriky AI špecifické pre tieto nové funkcie AI na meranie potenciálnych rizík, ako sú napríklad útek z väzenia, škodlivý obsah a obsah neuzemnený. Taktiež sme umožnili meranie vo veľkom prostredníctvom čiastočne automatizovaných kanálov merania. Zakaždým, keď sa produkt zmení, existujúce zmiernenia sa aktualizujú alebo sa navrhnú nové zmiernenia, aktualizujeme naše kanály merania, aby sme posúdili výkonnosť produktu aj metriky zodpovednej AI.  

Ilustratívnym príkladom je, že aktualizovaný čiastočne automatizovaný kanál merania škodlivého obsahu obsahuje dve hlavné inovácie: simuláciu konverzácie a automatizované, človekom overené poznámkovanie konverzácie. Najprv odborníci na zodpovednú AI vytvorili šablóny na zachytenie štruktúry a obsahu konverzácií, ktoré by mohli viesť k rôznym typom škodlivého obsahu. Tieto šablóny sme potom poskytli konverzačnému agentovi, ktorý ako hypotetický používateľ vytváral interakcie s funkciou Copilot v Bingu a generoval simulované konverzácie. Aby sme zistili, či tieto simulované konverzácie obsahovali škodlivý obsah, prijali sme pokyny, ktoré zvyčajne používajú experti na lingvistiku na označovanie údajov, a upravili sme ich na použitie v modeli GPT-4 na označovanie konverzácií vo veľkom meradle, pričom sme ich zdokonaľovali, kým nedošlo k významnej zhode medzi konverzáciami označenými modelom a konverzáciami označenými ľuďmi. Nakoniec sme použili konverzácie označené modelom na výpočet metriky zodpovednej AI, ktorá zachytáva účinnosť funkcie Copilot v Bingu pri zmierňovaní škodlivého obsahu.   

Naše meracie kanály nám umožňujú rýchlo vykonávať merania potenciálnych rizík v mierke. Keďže identifikujeme nové problémy prostredníctvom obdobia ukážky a prebiehajúceho testovania červeného tímu, pokračujeme v rozširovaní množín meraní, aby sme vyhodnotili ďalšie riziká.  

Keďže sme identifikovali potenciálne riziká a zneužitie prostredníctvom procesov, ako je testovanie červených tímov a záťažové testovanie, a merali sme ich pomocou inovatívnych prístupov opísaných vyššie, vyvinuli sme ďalšie zmiernenia rizík pre tie, ktoré sa používajú na tradičné vyhľadávanie. Nižšie popíšeme niektoré z týchto zmiernení. Budeme pokračovať v monitorovaní funkcií AI funkcie Copilot v Bingu, aby sme zlepšili výkon produktu a zmiernenia problémov.  

Postupné vydávanie a priebežné hodnotenie. Zaviazali sme sa neustále sa učiť a zlepšovať náš prístup k zodpovednej AI tak, ako sa vyvíjajú naše technológie a správanie používateľov. Naša stratégia postupného vydávania bola kľúčovou súčasťou toho bezpečného presúvania našej technológie z laboratórií do sveta, pričom sme sa zaviazali k rozvážnemu a premyslenému postupu na zabezpečenie výhod funkcie Copilot v Bingu. Obmedzenie počtu ľudí s prístupom počas obdobia verzie preview nám umožnilo zistiť, ako ľudia používajú Copilot v Bingu, vrátane toho, ako ho môžu zneužiť, takže sa môžeme pokúsiť zmierniť vznikajúce problémy pred produkčným vydaním. Od používateľov napríklad vyžadujeme, aby sa pred prístupom k úplnej novej funkcii v Bingu overili pomocou svojho konta Microsoft. Neoverení používatelia majú prístup len k obmedzenej verzia preview. Tieto kroky odrádzajú od zneužívania a pomáhajú nám (ak je to potrebné) podniknúť primerané kroky v reakcii na porušenie pravidiel správania.  Denne robíme vo funkcii Copilot v Bingu zmeny, aby sme zlepšili výkon produktu, zlepšili existujúce zmiernenia a implementovali nové zmiernenia v reakcii na naše poznatky počas obdobia verzie preview.  

Odôvodnenie vo výsledkoch hľadania. Ako je uvedené vyššie, funkcia Copilot v Bingu je navrhnutá tak, aby poskytovala odpovede podporované informáciami vo výsledkoch vyhľadávania na webe, keď používatelia hľadajú informácie. Systém napríklad získa text z najlepších výsledkov hľadania a pokyny prostredníctvom meta výzvy na odôvodnenie odpovede. Pri sumarizácii obsahu z webu však Copilot v Bingu môže do svojej odpovede zahrnúť informácie, ktoré nie sú prítomné v jeho vstupných zdrojoch. Inými slovami – môže to priniesť neodôvodnené výsledky. Naše skoré hodnotenia ukázali, že neodôvodnené výsledky v chate môžu prevládať pri určitých typoch výziev alebo tém ako pri iných, ako sú napríklad žiadosti o matematické výpočty, finančné alebo trhové informácie (napríklad zisky spoločnosti, údaje o výkonnosti akcií atď.) a informácie ako presné dátumy udalostí alebo konkrétne ceny položiek. Používatelia by mali byť pri prezeraní súhrnných výsledkov vyhľadávania vždy opatrní a používať svoj najlepší úsudok, či už na stránke s výsledkami hľadania alebo v rámci chatu. Prijali sme niekoľko opatrení na zmiernenie rizika, že sa používatelia môžu príliš spoliehať na neodôvodnený generovaný obsah v scenároch sumarizácie a chatovaní. Napríklad odpovede vo funkcii Copilot v Bingu, ktoré sú založené na výsledkoch vyhľadávania, obsahujú odkazy na zdrojové webové stránky, aby si používatelia overili odpoveď a získali ďalšie informácie. Používatelia tiež dostanú výslovné upozornenie, že komunikujú so systémom AI, a odporúča sa, aby si skontrolovali zdrojové materiály webových výsledkov, ktoré im pomôžu pri rozhodovaní.  

Klasifikátory založené na umelej inteligencii a metaprompujúce na zmiernenie potenciálnych rizík alebo zneužitia. Používanie llms môže produkovať problematický obsah, ktorý by mohol viesť k rizikám alebo zneužitiu. Príkladmi môžu byť výstupy súvisiace so sebapoškodzovaním, násilím, grafickým obsahom, duševným vlastníctvom, nepresnými informáciami, nenávistnými prejavmi alebo textom, ktorý by sa mohol týkať nezákonných aktivít. Klasifikátory a meta výzvy sú dva príklady zmierňovania, ktoré boli implementované vo funkcii Copilot v Bingu, aby pomohli znížiť riziko týchto typov obsahu. Klasifikátory klasifikujú text na označenie rôznych typov potenciálne škodlivého obsahu vo vyhľadávacích dopytoch, výzvach na chatovanie alebo generovaných odpovediach. Bing používa klasifikátory a filtre obsahu založené na umelej inteligencii, ktoré sa vzťahujú na všetky výsledky hľadania a relevantné funkcie. Navrhli sme ďalšie klasifikátory výziev a filtre obsahu špecificky na riešenie možných rizík spôsobených kopilotom vo funkciách Bingu. Príznaky vedú k potenciálnemu zmierneniu, ako je napríklad nevracanie vygenerovaného obsahu používateľovi, presmerovanie používateľa na inú tému alebo presmerovanie používateľa na tradičné vyhľadávanie. Meta výzvy zahŕňajú poskytovanie pokynov modelu s cieľom usmerniť jeho správanie, vrátane toho, aby sa systém správal v súlade so zásadami AI spoločnosti Microsoft a očakávaniami používateľov. Meta výzva môže napríklad obsahovať riadok ako „komunikuj v jazyku, ktorý si používateľ vyberie“.   

Ochrana súkromia vo vizuálnom hľadaní vo funkcii Copilot v Bingu. Keď používatelia nahrajú obrázok ako súčasť výzvy na chat, Copilot v Bingu použije technológiu rozmazania tváre pred odoslaním obrázka do modelu AI. Rozmazanie tváre sa používa na ochranu súkromia jednotlivcov na obrázku. Technológia rozmazania tváre sa pri určovaní miesta rozmazania spolieha na kontextové stopy a pokúsi sa rozmazať všetky tváre. S rozmazanými tvárami môže model AI porovnať zadaný obrázok s obrázkami verejne dostupnými na internete. Výsledkom je, že napríklad Copilot v Bingu môže vedieť identifikovať slávneho basketbalového hráča z fotografie tohto hráča na basketbalovom ihrisku vytvorením číselnej reprezentácie, ktorá odráža hráčovo číslo dresu, farbu dresu a prítomnosť basketbalového koša atď. Copilot v Bingu neukladá číselné znázornenia ľudí z nahraných obrázkov a nezdieľa ich s tretími stranami. Copilot v Bingu používa číselné vyjadrenia obrázkov, ktoré používatelia odovzdajú, iba na účely odpovedí na výzvy používateľov, potom sa odstránia do 30 dní po ukončení chatu.    

Ak používateľ požiada funkciu Copilot v Bingu o informácie o nahranom obrázku, odpovede v chate môžu odrážať vplyv rozmazania tváre na schopnosť modelu poskytnúť informácie o nahranom obrázku. Copilot v Bingu môže napríklad opísať, že niekto má rozmazanú tvár.    

Obmedzenie konverzačného posunu. Počas obdobia verzie preview sme sa dozvedeli, že veľmi dlhé rozhovory môžu viesť k odpovediam, ktoré sa opakujú, sú neužitočné alebo nekonzistentné so zamýšľaným tónom funkcie Copilot v Bingu. Aby sme vyriešili tento posun v konverzácii, obmedzili sme počet výmen (výmeny, ktoré obsahujú otázku používateľa aj odpoveď od funkcie Copilot v Bingu) na reláciu chatu. Pokračujeme vo vyhodnocovaní ďalších prístupov na zmiernenie tohto problému.  

Obohatenie výzvy. V niektorých prípadoch môže byť výzva používateľa nejednoznačná. Keď sa to stane, funkcia Copilot v Bingu môže použiť LLM na pomoc pri zostavovaní ďalších podrobností vo výzve, aby sa zabezpečilo, že používatelia dostanú odpoveď, ktorú hľadajú. Takéto obohatenie výzvy sa nespolieha na žiadne znalosti používateľa alebo jeho predchádzajúce vyhľadávania, ale namiesto toho na model AI. Tieto upravené dopyty budú viditeľné v histórii chatu používateľa a podobne ako iné vyhľadávania ich možno odstrániť pomocou ovládacích prvkov v produkte.  

Dizajn zameraný na používateľa a zásahy do používateľskej skúsenosti. Dizajn zameraný na používateľa a používateľské skúsenosti sú základným aspektom prístupu spoločnosti Microsoft k zodpovednej AI. Cieľom je zakoreniť dizajn produktu v potrebách a očakávaniach používateľov. Keď používatelia prvýkrát interagujú s funkciou Copilot v Bingu, ponúkame rôzne kontrolné body navrhnuté tak, aby im pomohli pochopiť možnosti systému, ozrejmiť im, že Copilot v Bingu používa technológiu AI, a oboznámiť ich s obmedzeniami. Táto skúsenosť je navrhnutá tak, aby pomohla používateľom vyťažiť z funkcie Copilot v Bingu maximum a minimalizovala riziko nadmerného spoľahnutia sa. Prvky funkcie tiež pomáhajú používateľom lepšie pochopiť funkciu Copilot v Bingu a ich interakcie s ňou. Patria sem návrhy chatu špecifické pre zodpovednú AI (napríklad: Ako Bing používa AI? Prečo funkcia Copilot v Bingu nereaguje na niektoré témy?), vysvetlenia obmedzení, spôsoby, akými sa môžu používatelia dozvedieť viac o tom, ako systém funguje a nahlásiť spätnú väzbu, a jednoduché referencie, ktoré sa zobrazujú v odpovediach, aby používateľom ukázali výsledky a stránky, na základe ktorých sú odpovede odôvodnené.  

Zverejnenie AI. Copilot v Bingu poskytuje niekoľko kontaktných bodov pre zmysluplné zverejnenie AI, kde sú používatelia upozornení, že interagujú so systémom AI, ako aj príležitosti dozvedieť sa viac o funkcii Copilot v Bingu. Posilnenie týchto znalostí používateľom môže pomôcť vyhnúť sa prílišnému spoliehaniu sa na AI a dozvedieť sa o silných stránkach a obmedzeniach systému.  

Pôvod médií. Microsoft Designer povolila funkciu Poverenia obsahu, ktorá používa kryptografické metódy na označenie zdroja alebo "provenienciu" všetkých obrázkov generovaných umelou inteligenciou vytvorených na Designer. Funkcia neviditeľnej digitálnej vodotlače zobrazuje zdroj, čas a dátum pôvodného vytvorenia a tieto informácie nemožno zmeniť. Táto technológia využíva štandardy stanovené koalíciou pre obsah a autentickosť (C2PA) na pridanie ďalšej vrstvy dôvery a transparentnosti pre obrázky generované AI. Spoločnosť Microsoft je spoluzakladateľom koalície C2PA a prispela základnou technológiou pôvodu digitálneho obsahu. 

Podmienky používania a pravidlá správania. Tento zdroj riadi používanie funkcie Copilot v Bingu. Používatelia by mali dodržiavať podmienky používania a pravidlá správania, ktoré ich okrem iného informujú o prípustnom a neprípustnom použití a dôsledkoch porušenia podmienok. Podmienky používania tiež poskytujú dodatočné informácie pre používateľov a slúžia ako užitočná referencia pre používateľov, aby sa dozvedeli o funkcii Copilot v Bingu.   

Operácie a rýchla reakcia. Funkciu Copilot v Bingu používame aj v rámci priebežného monitorovania a prevádzky, aby sme riešili, keď Copilot v Bingu prijme signály alebo dostane hlásenie naznačujúce možné zneužitie alebo porušenie podmienok používania alebo pravidiel správania.  

Spätná väzba, monitorovanie a dohľad. Funkcia Copilot v Bingu stavia na existujúcich nástrojoch, ktoré používateľom umožňujú odosielať spätnú väzbu a nahlasovať problémy, ktoré kontrolujú prevádzkové tímy spoločnosti Microsoft. Prevádzkové procesy v Bingu sa tiež rozšírili tak, aby vyhovovali funkciám v rámci funkcie Copilot v Bingu, napríklad aktualizáciou stránky Nahlásiť problém, aby zahŕňala nové typy obsahu, ktorý používatelia generujú pomocou modelu.   

Náš prístup k identifikácii, meranie a zmierňovanie rizík sa bude naďalej vyvíjať, keď sa budeme dozvedieť viac, a na základe pripomienok získaných počas obdobia ukážky už pracujeme na vylepšeniach.     

Automatická detekcia obsahu. Keď používatelia nahrajú obrázky ako súčasť výzvy na chat, Copilot v Bingu nasadí nástroje na zisťovanie snímok sexuálneho vykorisťovania a zneužívania detí, najmä technológiu porovnávania hodnôt hash nástroja PhotoDNA. Spoločnosť Microsoft vyvinula nástroj PhotoDNA, aby pomohla nájsť duplikáty známych snímok sexuálneho vykorisťovania a zneužívania detí. Spoločnosť Microsoft hlási všetky zjavné snímky sexuálneho vykorisťovania a zneužívania detí Národnému centru pre nezvestné a zneužívané deti (NCMEC), ako to vyžadujú zákony USA. Keď používatelia nahrajú súbory na analýzu alebo spracovanie, kopilot nasadzuje automatizované skenovanie s cieľom zistiť obsah, ktorý by mohol viesť k rizikám alebo zneužitiu, ako je napríklad text, ktorý by mohol súvisieť s nezákonnými aktivitami alebo škodlivým kódom.

Ochrana osobných údajov  

Dlhodobé presvedčenie spoločnosti Microsoft, že súkromie je základným ľudským právom, ovplyvnilo každú fázu vývoja a nasadenia funkcie Copilot v Bingu. Základom funkcie Copilot v Bingu sú naše záväzky chrániť súkromie všetkých používateľov vrátane poskytovania transparentnosti a kontroly nad ich údajmi jednotlivcom a integrácie súkromia už od návrhu prostredníctvom minimalizácie údajov a obmedzenia účelu. Ako vyvíjame náš prístup k poskytovaniu funkcií generatívnej AI funkcie Copilot v Bingu, budeme neustále skúmať, ako čo najlepšie chrániť súkromie. Tento dokument bude priebežne aktualizovaný. Viac informácií o tom, ako spoločnosť Microsoft chráni súkromie svojich používateľov, nájdete vo vyhlásení spoločnosti Microsoft o ochrane osobných údajov.  

V prostredí Copilot vo Windowse môžu zručnosti windowsu v rámci svojej funkčnosti zdieľať informácie o používateľoch s konverzáciou v konverzácii. Podlieha schváleniu používateľom a zobrazia sa výzvy používateľského rozhrania na potvrdenie zámeru používateľa pred zdieľajte informácie o používateľovi s konverzáciou v konverzácii.

Spoločnosť Microsoft naďalej zohľadňuje potreby detí a mladých ľudí ako súčasť hodnotenia rizík nových funkcií generatívnej AI v rámci funkcie Copilota v Bingu. Všetky detské kontá Microsoft, ktoré identifikujú používateľa mladšieho ako 13 rokov alebo ako je inak uvedené v miestnych zákonoch, sa nemôžu prihlásiť na získanie prístupu k úplnej novej funkcii v Bingu.   

Ako je uvedené vyššie, pre všetkých používateľov sme zaviedli bezpečnostné opatrenia, ktoré zmierňujú potenciálne škodlivý obsah. V rámci funkcie Copilot v Bingu sú výsledky nastavené ako v prísnom režime bezpečného hľadania v Bingu, ktorý má najvyššiu úroveň ochrany bezpečnosti v hlavnom hľadaní v Bingu, a preto bráni používateľom vrátane mladistvých používateľov pred vystavením potenciálne škodlivému obsahu. Okrem informácií, ktoré sme uviedli v tomto dokumente a v našich najčastejších otázkach týkajúcich sa funkcií chatu, ďalšie informácie o tom, ako funguje funkcia Copilot v Bingu, aby sa vyhla odpovedaniu neočakávaným urážlivým obsahom vo výsledkoch hľadania, nájdete tu.  

Spoločnosť Microsoft sa zaviazala neposkytovať prispôsobenú reklamu založenú na správaní online deťom, ktoré sú podľa dátumu narodenia uvedeného v ich konte Microsoft mladšie ako 18 rokov. Táto dôležitá ochrana sa rozšíri aj na reklamy vo funkciách Copilot v Bingu. Používatelia môžu vidieť kontextové reklamy na základe dopytu alebo výzvy, ktorá sa používa na interakciu s Bingom.  

Aby sme odomkli transformačný potenciál generatívnej AI, musíme vybudovať dôveru v technológiu tým, že jednotlivcom umožníme pochopiť, ako sa používajú ich údaje, a poskytneme im zmysluplné možnosti a kontrolu nad ich údajmi. Funkcia Copilot in Bing je navrhnutá tak, aby uprednostňovala ľudské pôsobenie prostredníctvom poskytovania informácií o tom, ako produkt funguje, ako aj jeho obmedzeniach, a prostredníctvom rozšírenia našich robustných spotrebiteľských možností a ovládacích prvkov na funkcie Copilot v Bingu.   

Zásady ochrany osobných údajov spoločnosti Microsoft poskytujú informácie o našich transparentných postupoch ochrany osobných údajov na ochranu našich zákazníkov a obsahuje informácie o ovládacích prvkoch, ktoré našim používateľom umožňujú zobraziť a spravovať svoje osobné údaje. Aby sme zaistili, že používatelia budú mať informácie, ktoré potrebujú pri interakcii s novými konverzačnými funkciami Bingu, zverejnenia v produkte informujú používateľov, že používajú produkt AI, a poskytujeme odkazy na ďalšie najčastejšie otázky a vysvetlenia, ako tieto funkcie fungujú. Spoločnosť Microsoft bude naďalej počúvať spätnú väzbu od používateľov a podľa potreby pridá ďalšie podrobnosti o konverzačných funkciách Bingu, aby podporila pochopenie spôsobu, akým funguje.   

Spoločnosť Microsoft tiež poskytuje svojim používateľom robustné nástroje na uplatnenie ich práv týkajúcich sa osobných údajov. V prípade údajov, ktoré zhromažďuje Copilot v Bingu, vrátane prostredníctvom používateľských dotazov a príkazov, poskytuje Microsoft Tabuľa ochrany osobných údajov overeným (prihláseným) používateľom nástroje na uplatnenie práv dotknutých osôb vrátane poskytovania možnosti zobrazovať, exportovať a odstraňovať uloženú históriu konverzácií. Spoločnosť Microsoft naďalej získava pripomienky k tomu, ako chcú používatelia spravovať svoje prostredie nového Bingu, a to aj prostredníctvom kontextovej správy údajov.   

Copilot v Bingu tiež rešpektuje požiadavky v rámci európskeho práva byť zabudnutý, podľa procesu, ktorý spoločnosť Microsoft vyvinula a zdokonalila pre tradičnú funkciu vyhľadávania v Bingu. Všetci používatelia môžu nahlásiť obavy týkajúce sa generovaného obsahu a odpovedí tu a naši európski používatelia môžu použiť tento formulár na odoslanie žiadostí o zablokovanie výsledkov vyhľadávania v Európe v rámci práva byť zabudnutý.   

Copilot v Bingu bude rešpektovať voľby týkajúce sa ochrany osobných údajov používateľov vrátane tých, ktoré boli predtým vykonané v Bingu, ako je napríklad súhlas so zhromažďovaním a používaním údajov, ktorý sa vyžaduje prostredníctvom bannerov so súbormi cookie a ovládacích prvkov dostupných v časti Microsoft Tabuľa ochrany osobných údajov. Aby sme umožnili používateľom autonómiu a vlastné pôsobenie pri prijímaní informovaných rozhodnutí, použili sme náš interný kontrolný proces na dôkladné preskúmanie spôsobu, akým sú voľby prezentované používateľom. 

Okrem ovládacích prvkov dostupných v časti Microsoft Tabuľa ochrany osobných údajov, ktoré umožňujú používateľom zobrazovať, exportovať a odstraňovať svoju históriu vyhľadávania vrátane súčastí ich histórie rozhovorov, majú overení používatelia, ktorí v produkte povolili funkciu histórie chatu, možnosť zobraziť a pristupovať a stiahnite si históriu chatu prostredníctvom ovládacích prvkov v produkte. Používatelia môžu kedykoľvek vymazať konkrétne chaty z histórie chatu alebo úplne vypnúť funkciu histórie chatu na stránke Nastavenia Bingu. Používatelia sa tiež môžu rozhodnúť, či povolia prispôsobenie, aby mali prístup k lepšie prispôsobenému prostrediu s prispôsobenými odpoveďami. Používatelia sa môžu kedykoľvek prihlásiť a odhlásiť z prispôsobenia v časti Nastavenia chatu na stránke Nastavenia Bingu.  Vymazanie konkrétnych chatov z histórie chatu zabráni ich použitiu na prispôsobenie.  
 
Viac informácií o histórii chatu a prispôsobení používatelia nájdu v najčastejších otázkach o funkcii Copilot v Bingu. 

Funkcia Copilot v Bingu bola vytvorená s ohľadom na ochranu osobných údajov, takže sa osobné údaje zhromažďujú a používajú len podľa potreby a neuchovávajú sa dlhšie, než je potrebné. Ako už bolo spomenuté vyššie, funkcia vizuálneho hľadania v rámci funkcie Copilot v Bingu využíva mechanizmus, ktorý v čase nahrávania obrázkov používateľmi na nich rozmazáva tváre, aby sa snímky tváre ďalej nespracovávali ani neukladali. Ďalšie informácie o osobných údajoch, ktoré Bing zhromažďuje, ako sa používajú a ako sa ukladajú a odstraňujú, sú k dispozícii vo vyhlásení spoločnosti Microsoft o ochrane osobných údajov, ktoré tiež obsahuje informácie o nových funkciách chatu v Bingu.   

Copilot v Bingu má pravidlá uchovávania a odstraňovania údajov, ktoré pomáhajú zabezpečiť, aby sa osobné údaje zhromaždené prostredníctvom funkcií chatu v Bingu uchovávali len tak dlho, ako je to potrebné.   

Naďalej sa budeme učiť a rozvíjať náš prístup k poskytovaniu funkcie Copilot v Bingu a popri tom budeme pokračovať v práci v rôznych oblastiach, aby sme zosúladili naše inovácie umelej inteligencie s ľudskými hodnotami a základnými právami vrátane ochrany mladých používateľov a súkromia.   

Copilot s ochranou komerčných údajov 

Copilot s ochranou komerčných údajov, predtým známy ako Bing Chat Enterprise („BCE“), bol vydaný spoločnosťou Microsoft v bezplatnej verejnej verzii preview v júli 2023 ako bezplatný doplnok pre určitých zákazníkov M365. Copilot s ochranou komerčných údajov je vyhľadávanie na webe vylepšené umelou inteligenciou pre podnikových koncových používateľov. 

Podobne ako pri funkcii Copilot v Bingu, keď kopilot s ochranou komerčných údajov zadá výzvu do rozhrania, výzva, okamžitá konverzácia, najlepšie výsledky vyhľadávania a meta výzva sa odošlú ako vstupy do LLM. Model vygeneruje odpoveď pomocou výzvy a nedávnej histórie konverzácií na kontextualizáciu požiadavky, meta výzvy na zosúladenie odpovedí so zásadami AI spoločnosti Microsoft a očakávaniami používateľov a výsledkami hľadania na základe odpovedí v existujúcom vysokohodnotnom obsahu z webu. Funguje to rovnakým spôsobom ako Copilot v Bingu, ako je popísané vyššie v tomto dokumente, s výnimkou, že kopilot s ochranou komerčných údajov sa spolieha iba na okamžitú históriu konverzácií (nie nedávnu históriu konverzácií), pretože uložená história chatov nie je momentálne podporovanou funkciou. Designer a visual Search sú teraz k dispozícii v tejto verzii. 

Rovnako ako ostatné transformačné technológie, aj využitie výhod umelej inteligencie nie je bez rizika a základná časť programu zodpovednej umelej inteligencie spoločnosti Microsoft je navrhnutá tak, aby identifikovala potenciálne riziká, merala ich sklon k vzniku a vytvárala zmierňujúce opatrenia na ich riešenie. Vyššie uvedený popis úsilia spoločnosti Microsoft o identifikáciu, meranie a zmiernenie potenciálnych rizík pre kopilot v Bingu sa vzťahuje aj na túto verziu s niekoľkými vysvetleniami o obmedzeniach rizík popísaných nižšie: 

Postupné vydávanie a priebežné hodnotenie. Podobne ako v prípade funkcie Copilot v Bingu, aj v prípade kopilota s ochranou komerčných údajov sme zvolili postupné vydávanie. 18. júla 2023 bol Copilot s ochranou komerčných údajov k dispozícii ako bezplatná verzia preview pre oprávnených podnikových zákazníkov so špecifickými kontami M365, ktorú môžu zapnúť pre svojich podnikových koncových používateľov. Tridsať (30) dní po upozornení oprávnených podnikových zákazníkov sa Copilot s ochranou komerčných údajov stal pre tých istých zákazníkov „predvolene zapnutý“. Copilot s ochranou komerčných údajov je odvtedy dostupný aj pre kontá M365 konkrétnych vzdelávacích fakúlt. Copilot s ochranou komerčných údajov sa stal všeobecne dostupný pre určitých podnikových zákazníkov 1. decembra 2023. V budúcnosti plánujeme rozšíriť prístup ku Copilot s ochranou komerčných údajov na viac používateľov služby Microsoft Entra ID.

Podmienky používania a pravidlá správania. Koncoví používatelia Copilot s ochranou komerčných údajov musia dodržiavať podmienky používania pre koncových používateľov. Tieto podmienky používania informujú koncových používateľov o prípustnom a neprípustnom použití a dôsledkoch porušenia podmienok.  

Operácie a rýchla reakcia. Copilot používame aj v rámci priebežného monitorovania a prevádzky Bingu, aby sme riešili, keď Copilot s ochranou komerčných údajov prijme signály alebo dostane hlásenie naznačujúce možné zneužitie alebo porušenie podmienok používania pre koncových používateľov

Spätná väzba, monitorovanie a dohľad. Copilot s ochranou komerčných údajov používa rovnaké nástroje ako Copilot v Bingu na odosielanie spätnej väzby a nahlasovanie problémov, ktoré kontrolujú prevádzkové tímy spoločnosti Microsoft. Prevádzkové procesy funkcie Copilot v Bingu sa tiež rozšírili tak, aby vyhovovali funkciám v rámci Copilot s ochranou komerčných údajov, napríklad aktualizáciou stránky Nahlásiť problém, aby zahŕňala nové typy obsahu, ktorý používatelia generujú pomocou modelu.  

Aby mali koncoví používatelia informácie, ktoré potrebujú pri interakcii s Copilot s ochranou komerčných údajov, v spodnej časti tohto dokumentu je k dispozícii produktová dokumentácia vrátane stránok s najčastejšími otázkami a ďalšími informáciami. 

Výzvy a odpovede generované koncovými používateľmi v Copilot s ochranou komerčných údajov sa spracúvajú a ukladajú v súlade s podnikovými štandardmi spracovania údajov. Ponuka Copilot s ochranou komerčných údajov je v súčasnosti dostupná len pre podnikových zákazníkov a ich overených dospelých koncových používateľov, preto v súčasnosti nepredpokladáme, že deti alebo mladiství budú koncovými používateľmi Copilot s ochranou komerčných údajov. Okrem toho Copilot s ochranou komerčných údajov neposkytuje koncovým používateľom žiadnu reklamu cielenú na základe správania. Namiesto toho sú všetky zobrazené reklamy iba kontextovo relevantné reklamy.  

Ďalšie informácie

Tento dokument je súčasťou širšieho úsilia spoločnosti Microsoft o uvedenie našich princípov umelej inteligencie do praxe. Ďalšie informácie nájdete v témach:

Prístup spoločnosti Microsoft k zodpovednej AI

Štandard zodpovednej AI od spoločnosti Microsoft   

Zdroje zodpovednej AI od spoločnosti Microsoft  

Vzdelávacie kurzy Microsoft Azure o zodpovednej AI  

Informácie o tomto dokumente  

© 2023 Microsoft. Všetky práva vyhradené. Tento dokument sa poskytuje tak, ako je, a slúži len na informačné účely. Informácie a názory vyjadrené v tomto dokumente, vrátane odkazov na URL adresy a iné internetové webové lokality, sa môžu zmeniť bez predchádzajúceho upozornenia. Nesiete riziko jeho používania. Niektoré príklady slúžia len na ilustráciu a sú fiktívne. Nie je zamýšľané ani odvodené žiadne skutočné spojenie.  

Potrebujete ďalšiu pomoc?

Chcete ďalšie možnosti?

Môžete preskúmať výhody predplatného, prehľadávať školiace kurzy, naučiť sa zabezpečiť svoje zariadenie a ešte oveľa viac.

Komunity pomôžu s kladením otázok a odpovedaním na ne, s poskytovaním pripomienok a so získavaním informácií od odborníkov s bohatými znalosťami.

Boli tieto informácie užitočné?

Aká je podľa vás jazyková kvalita textu?
Čo sa vám páčilo, prípadne čo nie?
Stlačením tlačidla Odoslať sa vaše pripomienky použijú na zlepšenie produktov a služieb spoločnosti Microsoft. Váš správca IT bude môcť tieto údaje zhromažďovať. Vyhlásenie o ochrane osobných údajov.

Ďakujeme za vaše pripomienky!

×