Posledná aktualizácia: september 2025
Čo je poznámka o transparentnosti?
Systém umelej inteligencie zahŕňa nielen technológiu, ale aj ľudí, ktorí ju budú používať, ľudí, ktorých sa to týka, a prostredie, v ktorom je nasadený. Poznámky spoločnosti Microsoft o transparentnosti sú určené na to, aby vám pomohli pochopiť, ako funguje technológia AI, ktorá stojí za technológiou Copilot, rozhodnutia, ktoré ovplyvňujú výkon a správanie systému, a dôležitosť myslenia o celom systéme, aby používatelia kopilotu mohli prevziať kontrolu nad svojimi vlastnými skúsenosťami a pochopiť kroky, ktoré podnikáme na poskytovanie bezpečného a bezpečného produktu.
Poznámky spoločnosti Microsoft o transparentnosti sú súčasťou širšieho úsilia spoločnosti Microsoft zaviesť naše zásady umelej inteligencie do praxe. Ďalšie informácie nájdete v zásadách umelej inteligencie spoločnosti Microsoft.
Základy Microsoft Copilot
Úvod
Kopilot je funkcia využívajúca umelú inteligenciu, ktorá používateľom pomôže poskytnúť informácie, ktoré hľadajú, a zároveň bude pripravená podporovať používateľov pri odpovedaní na širokú škálu otázok bez ohľadu na situáciu alebo tému. Obnovený kopilot presahuje rámec odpovedania na základné dotazy na načítanie informácií a zameriava sa na generovanie obsahu s cieľom ponúknuť používateľom proaktívnejšiu podporu pri dokončení úloh. Neustále rozumieme tomu, ako má umelá inteligencia potenciál pomôcť ľuďom učiť sa, objavovať a byť kreatívnejší, čo od nás vyžadovalo vytvorenie iného typu produktu. Nové prostredie Kopilot sa snaží stať novým typom prostredia, ktoré je otvorené a dynamické na lepšie riešenie potrieb používateľa spôsobom, ktorý je intuitívnejší.
V spoločnosti Microsoft berieme náš záväzok týkajúci sa zodpovedného používania umelej inteligencie vážne. Aktualizované možnosti kopírovania boli vyvinuté v súlade so zásadami umelej inteligencie spoločnosti Microsoft, zodpovedným Standard umelej inteligencie spoločnosti Microsoft a v spolupráci so zodpovednými odborníkmi umelej inteligencie v celej spoločnosti vrátane Úradu zodpovednej umelej inteligencie spoločnosti Microsoft, našich technických tímov, microsoft researchu a umelej inteligencie. Viac o zodpovednej AI v spoločnosti Microsoft sa dozviete tu.
V tomto dokumente popisujeme náš prístup k zodpovednej umelej inteligencii za kopilot. Pred vydaním sme využili najmodernejšie metódy spoločnosti Microsoft na mapovanie, meranie a spravovanie potenciálnych rizík a zneužitia systému a na zabezpečenie jeho výhod pre používateľov. Keďže sme naďalej vyvíjali kopilot, aj naďalej sa učíme a vylepšujeme naše zodpovedné úsilie o umelú inteligenciu. Tento dokument bude pravidelne aktualizovaný, aby informoval o našich vyvíjajúcich sa procesoch a metódach.
Kľúčové výrazy
Klasifikátory Modely strojového učenia, ktoré pomáhajú zoraďovať údaje do označených tried alebo kategórií informácií. V aktualizovanom prostredí kopilotu je jedným zo spôsobov používania klasifikátorov pomoc pri zisťovaní potenciálne škodlivého obsahu odoslaného používateľmi alebo generovaného systémom na zmiernenie vzniku tohto obsahu a zneužitie alebo zneužitie systému.
Uzemnenie V prípade niektorých konverzácií, v ktorých používatelia hľadajú informácie, je kopilot uzemnený vo výsledkoch vyhľadávania na webe. To znamená, že kopilot vycentruje svoju odpoveď na vysoko postavený obsah z webu a poskytuje citácie s hypertextovými prepojeniami po vygenerovaných textových odpovediach. Všimnite si, že v tomto čase výzvy používateľa v hlasovom režime nespustia vyhľadávanie na webe, a preto žiadne odpovede nebudú obsahovať citácie.
Veľké jazykové modely (LLM) Veľké jazykové modely (LLM) sú v tomto kontexte modely AI, ktoré sú trénované na veľkom množstve textových údajov na predpovedanie slov v sekvenciách. LlMs môžu vykonávať rôzne úlohy, ako je napríklad generovanie textu, sumarizácia, preklad, klasifikácia a ďalšie.
Zmiernenie Metóda alebo kombinácia metód určených na zníženie potenciálnych rizík, ktoré môžu vzniknúť pri používaní funkcií umelej inteligencie v rámci programu Copilot.
Multimodálne modely (MMM) Multimodálne modely (MMM) sú modely AI, ktoré sú trénované na rôzne typy údajov, ako je napríklad text, obrázky alebo zvuk. Tieto modely môžu vykonávať rôzne úlohy, napríklad písať text, popisovať obrázky, rozpoznávať reč a vyhľadávať informácie v rôznych typoch údajov.
Príkazy Vstupy vo forme textu, obrázkov a/alebo zvuku, ktoré používateľ odošle do programu Copilot na interakciu s funkciami umelej inteligencie v rámci programu Copilot.
Červené zoskupenie Techniky používané odborníkmi na posúdenie obmedzení a slabých miest systému a na testovanie účinnosti plánovaných zmiernení. Testovanie červeného tímu zahŕňa testerov, ktorí prijímajú benígne aj kontradiktórne osoby na identifikáciu potenciálnych rizík a sú odlišné od systematického merania rizík.
Reakcie Text, obrázky alebo zvuk, ktorý kopilot výstupy v reakcii na výzvu alebo ako súčasť tam a späť s používateľom. Synonymá pre "odpoveď" zahŕňajú "dokončenie", "generovanie a "odpoveď".
Malé jazykové modely (SLM) Malé jazykové modely (SLMs) v tejto súvislosti sú modely AI, ktoré sú trénované na menšie a cielenejšie množstvo údajov v porovnaní s veľkými jazykovými modelmi. Napriek menšej veľkosti môžu SLM vykonávať rôzne úlohy, ako napríklad vytváranie textu, sumarizáciu, preklad a klasifikáciu. Hoci sa nemusia zhodovať s rozsiahlymi možnosťami llms, SLM sú často efektívnejšie zdroje a môžu byť vysoko efektívne pre konkrétne, cielené aplikácie.
Systémové hlásenie Systémové hlásenie (niekedy označované ako metaprompt) je program, ktorý slúži na usmernenie správania systému. Časti systémových hlásení pomáhajú zosúladiť správanie systému so zásadami AI spoločnosti Microsoft a očakávaniami používateľov. Systémové hlásenie môže napríklad obsahovať riadok ako "neposkytovať informácie alebo vytvárať obsah, ktorý by mohol spôsobiť fyzickú, emocionálnu alebo finančnú ujmu".
Schopnosti
Správanie systému
S aplikáciou Copilot sme vyvinuli inovatívny prístup, aby sme používateľom prinášali osobnejšie používateľské prostredie AI na pútavé používanie, ktoré môže pomôcť používateľom s rôznymi úlohami. Tento inovatívny prístup využíva širokú škálu pokročilých technológií, ako sú jazykové a multimodálne modely od spoločnosti Microsoft, openai a ďalších vývojárov modelov. Pred verejným vydaním sme pracovali na implementácii bezpečnostných techník pre modely, ktoré sú základom nového prostredia kopilotu, a vytvorili sme prispôsobenú množinu možností a správania, ktoré poskytujú vylepšené prostredie kopilotu. V aktualizovanom kopilote môžu používatelia odosielať výzvy v texte alebo hlase v prirodzenom jazyku. Odpovede sa používateľom zobrazujú v niekoľkých rôznych formátoch, ako sú napríklad odpovede na chat v textovej forme (podľa potreby tradičné prepojenia na webový obsah) a obrázky (ak bola žiadosť o obrázok podaná ako súčasť výzvy). Ak používatelia odošlú výzvy hlasom v prirodzenom jazyku v režime hlasu Kopilot, dostanú zvukové odpovede.
Keď používateľ zadá výzvu do kopírátora, výzva, história konverzácie a systémová správa sa odošlú prostredníctvom niekoľkých vstupných klasifikátorov, ktoré pomáhajú filtrovať škodlivý alebo nevhodný obsah. Ide o kľúčový prvý krok na zlepšenie výkonu modelu a zmiernenie situácií, v ktorých sa používatelia môžu pokúsiť zobraziť výzvu na vytvorenie modelu spôsobom, ktorý by mohol byť nebezpečný. Keď výzva prejde vstupnými klasifikátormi, odošle sa do SLM, aby sa zistilo, či žiadosť vyžaduje uzemnenie údajov z webu a ktorý jazykový model by mal na žiadosť odpovedať. Všetky modely vygenerujú odpoveď pomocou výzvy používateľa a nedávnej histórie konverzácie na kontextualizáciu požiadavky, systémové hlásenie na zosúladenie odpovedí so zásadami a očakávaniami používateľov a v prípade potreby zosúlaďujú odpovede s výsledkami hľadania podľa základných odpovedí v existujúcom vysokopostavenom obsahu z webu.
Odpovede sa používateľom zobrazujú v niekoľkých rôznych formátoch, ako sú napríklad odpovede na chat v textovej forme, tradičné prepojenia na webový obsah, obrázky a zvukové odpovede. Keď sú odpovede poskytnuté vo forme textu a odpovede sú uzemnené v údajoch z webu, výstup obsahuje citácie s hypertextovým prepojením uvedené pod textom, aby používatelia mali prístup k webovým lokalitám, ktoré boli použité na uzemnenie odpovede, a získajte ďalšie informácie o téme odtiaľ. Kopilot môže tiež spustiť kód na dokončenie zložitých výpočtov a generovanie grafov. Kopilot dokáže uložiť konkrétne fakty, ktoré používatelia požadujú, aby si to pamätali, čo mu umožní generovať relevantnejšie odpovede a návrhy na základe daného kontextu. Kopilot môže tiež odstrániť uložené fakty, keď používatelia požiadajú, aby ich výslovne zabudli.
Kopilot tiež pomáha používateľom vytvárať nové príbehy, básne, texty piesní a obrázky. Keď kopilot zistí zámer používateľa generovať kreatívny obsah (napríklad výzvu používateľa, ktorá sa začína písmenom "napíš mi ..."), systém vo väčšine prípadov vygeneruje obsah reagujúci na výzvu používateľa. Podobne, keď kopilot zistí zámer používateľa vygenerovať obrázok (napríklad výzvu používateľa, ktorá začína reťazcom "nakresliť mi ..."), Kopilot vo väčšine prípadov vygeneruje obrázok reagujúci na výzvu používateľa. Keď kopilot zistí zámer používateľa upraviť nahratý obrázok (napríklad výzvu používateľa, ktorá začína reťazcom "pridať ..."), kopilot vo väčšine prípadov upraví obrázok reagujúci na výzvu používateľa. Kopilot nemusí reagovať kreatívnym obsahom, keď výzva používateľa obsahuje určité výrazy, ktoré by mohli mať za následok problematický obsah.
Používatelia s kontami Microsoft majú teraz tiež možnosť prihlásiť sa na odber Copilot Pro, ktorý ponúka vylepšené možnosti vrátane zrýchleného výkonu, dlhšieho používania funkcií funkcie Copilot Voice a v niektorých prípadoch aj prístup k novým experimentálnym funkciám. Copilot Pro je v súčasnosti k dispozícii v obmedzenom počte krajín a čoskoro plánujeme sprístupniť Copilot Pro na viacerých trhoch.
Zamýšľané správanie zabezpečenia
Naším cieľom pre aplikáciu Copilot je byť pre používateľov užitočné. Využitím osvedčených postupov iných produktov a služieb AI spoločnosti Microsoft sa snažíme obmedziť vytváranie problematického obsahu spoločnosťou Copilot a zvýšiť pravdepodobnosť bezpečného a pozitívneho používateľského prostredia. Hoci sme podnikli kroky na zmiernenie rizík, generované modely AI, ako sú tie, ktoré stoja za spoločnosťou Copilot, sú probabilistické a môžu robiť chyby, čo znamená, že zmiernenia môžu občas zlyhať pri blokovaní škodlivých výziev používateľov alebo odpovedí generovaných umelou inteligenciou. Ak sa pri používaní kopílotu vyskytne škodlivý alebo neočakávaný obsah, dajte nám o tom vedieť poskytnutím pripomienok, aby sme mohli pokračovať v zlepšovaní prostredia.
Prípady použitia
Zamýšľané použitie
Cieľom programu Copilot je podporovať používateľov pri odpovedaní na širokú škálu otázok bez ohľadu na situáciu alebo tému. Používatelia môžu s kopilotom pracovať pomocou vstupov textu, obrázka a zvuku, pričom interakcie sú skôr prirodzené konverzácie so systémom AI. Okrem toho, ak používatelia komunikujú s kopilotom prostredníctvom textu s cieľom vyhľadať konkrétne informácie o témach, v ktorých môže kopilot vyžadovať viac informácií na vytvorenie presnejšej odpovede, cieľom tejto funkcie je spojiť používateľov s relevantnými výsledkami hľadania, skontrolovať výsledky z celého webu a zhrnúť informácie, ktoré používatelia hľadajú. V aplikácii Copilot môžu používatelia:
-
Zhrňte informácie v reálnom čase pri chatovaní prostredníctvom textu. Keď používatelia komunikujú s kopilotom prostredníctvom textu, systém vykoná webové vyhľadávania, ak potrebuje viac informácií, a použije najvyššie výsledky vyhľadávania na webe na generovanie súhrnu informácií, ktoré sa majú prezentovať používateľom. Tieto súhrny obsahujú citácie na webové stránky, ktoré pomáhajú používateľom zobraziť a jednoducho získať prístup k zdrojom výsledkov hľadania, ktoré pomohli získať základné zhrnutie programu Copilot. Používatelia môžu kliknúť na tieto prepojenia a prejsť priamo na zdroj, ak sa chcú dozvedieť viac.
-
Chatujte so systémom umelej inteligencie pomocou textu. Používatelia môžu chatovať s aplikáciou Copilot prostredníctvom textu a klásť ďalšie otázky, nájsť nové informácie a získať podporu v rámci širokej škály tém.
-
Rozhranie s umelou inteligenciou pomocou hlasu a vzhľadu. Kopírovať môže nielen prijímať vstup zvuku, ale tiež produkovať zvukový výstup v jednom zo štyroch hlasov vybraných používateľmi, a prezentovať vizuálny vzhľad obohatiť interakcie. Možnosti zvuku a vzhľadu umožňujú používateľom pracovať s kopilotom prirodzenejším a plynulejším spôsobom.
-
Prijímajte prehľadný obsah správ. Používatelia môžu použiť funkciu Copilot na získanie súhrnu noviniek, počasia a ďalších aktualizácií založených na vybratých oblastiach tém prostredníctvom funkcie Denný prehľad Copilota a vypočuť si tieto brífingy vo formáte podcastu. Táto funkcia získa obsah z oprávnených zdrojov, ktoré majú zmluvy so spoločnosťou Microsoft.
-
Získajte pomoc pri vytváraní nových nápadov. Vždy, keď používatelia pracujú s prostredím Kopilot, zobrazí sa im skupina kariet, na ktoré môžu kliknúť a začať chatovať s kopilotom o užitočných a zaujímavých témach. Ak používatelia interagujú s inými spotrebiteľskými službami spoločnosti Microsoft, karty budú prispôsobené v súlade s našimi zásadami ochrany osobných údajov. V priebehu času môžu byť karty v kopilote prispôsobené na základe histórie konverzácie používateľa. Používatelia sa môžu odhlásiť z prispôsobenia kedykoľvek v nastaveniach.
-
Generovať kreatívny obsah. Pri chatovaní s aplikáciou Copilot môžu používatelia vytvárať nové básne, vtipy, príbehy, obrázky a ďalší obsah s pomocou programu Copilot. Kopilot môže tiež upravovať obrázky nahraté používateľmi, ak o to požiadajú.
-
Vykonávajte úlohy v Androide.Používatelia môžu komunikovať s aplikáciou Copilot prostredníctvom platformy Android prostredníctvom hlasu na vykonávanie určitých úloh. Tieto úlohy sú nastavenie časovačov a budíkov, uskutočňovanie telefonických hovorov, odosielanie SMS správ a objednávanie Uberu. Pred dokončením úloh musia používatelia potvrdiť telefonický hovor, SMS správu a objednávku Uberu.
-
Pomoc s výskumom. Kopilot môže vykonávať výskumné úlohy povrchom podrobných zdrojov, ponúka podrobné členenie tém a prepojenie na zdroje, ktoré pomáhajú používateľom ísť nad rámec rýchlych odpovedí na zložitejšie dotazy. Kopilot môže proaktívne generovať prispôsobené návrhy výskumu pre používateľov na základe predchádzajúcich výskumných dotazov a pamäte kopilotu. Používatelia sa môžu kedykoľvek odhlásiť z prispôsobenia alebo oznámení v nastaveniach.
-
Preskúmajte svet pomocou Videnie Copilota. Kopilot môže zobraziť obrazovku alebo mobilný informačný kanál fotoaparátu a používať jeho hlas na odpovedanie na otázky a interakciu s vami. Kopilot môže okamžite skenovať, analyzovať a ponúkať prehľady a návrhy v reálnom čase, ktoré vám pomôžu pri práci, prehľadávaní alebo skúmaní sveta. Videnie Copilota je k dispozícii v prehliadačoch Edge, Windows, iOS a Android.
Dôležité informácie pri výbere iných prípadov použitia
Odporúčame používateľom, aby pred prijatím rozhodnutí alebo konaním na základe odpovedí spoločnosti Copilot preskúmali všetok obsah, pretože umelá inteligencia môže robiť chyby. Okrem toho existujú určité scenáre, ktorým sa odporúčame vyhnúť alebo ktoré sú v rozpore s našimi podmienkami používania. Spoločnosť Microsoft napríklad nepovoľuje používanie nástroja Copilot v súvislosti s nezákonnými aktivitami alebo na akýkoľvek účel určený na propagáciu nezákonnej aktivity.
Obmedzenia
Jazykové, obrazové a zvukové modely, ktoré nedostatočne využívajú funkciu Kopilot, môžu obsahovať údaje o školení, ktoré môžu odrážať spoločenské predsudky, čo môže potenciálne spôsobiť, že kopilot sa bude správať spôsobom, ktorý je vnímaný ako nespravodlivý, nespoľahlivý alebo urážlivý. Napriek intenzívnemu trénovaniu modelov a dolaďovania bezpečnosti, ako aj implementácii zodpovedných ovládacích a bezpečnostných systémov umelej inteligencie, ktoré umiestnime na tréningové údaje, výzvy používateľov a modelové výstupy, sú služby riadené umelou inteligenciou omylné a probabilistické. Z tohto dôvodu je náročné komplexne blokovať všetok nevhodný obsah, čo vedie k rizikám, že potenciálne zaujatosti, stereotypy, neuzemnenosť alebo iné typy škôd, ktoré sa môžu objaviť v obsahu generovanom umelou inteligenciou. Tu sú uvedené niektoré spôsoby, ako sa tieto obmedzenia môžu prejaviť v prostredí Kopilot.
-
Stereotypovanie: Skúsenosť s kopilotom by mohla potenciálne posilniť stereotypy. Napríklad pri preklade "On je zdravotná sestra" a "Ona je lekár" do bezhlavého jazyka, ako je turečtina a potom späť do angličtiny, kopilot môže neúmyselne priniesť stereotypné (a nesprávne) výsledky "Ona je zdravotná sestra" a "On je lekár." Ďalším príkladom je, keď generuje obrázok založený na výzve "Deti bez otcov", systém by mohol generovať obrazy detí len z jednej rasy alebo etnickej príslušnosti, posilnenie škodlivých stereotypov, ktoré by mohli existovať vo verejne dostupných obrázkoch používaných na trénovanie základných modelov. Kopilot môže tiež posilniť stereotypy na základe obsahu vstupného obrázka používateľa tým, že sa spolieha na súčasti obrázka a vytvára predpoklady, ktoré nemusia byť pravdivé. Zaviedli sme zmierňujúce opatrenia na zníženie rizika obsahu, ktorý obsahuje urážlivé stereotypy, vrátane vstupných a výstupných klasifikátorov, doladených modelov a systémových hlásení.
-
Nadmerná reprezentácia a nedostatočná reprezentácia: Kopilot by mohol vo svojich odpovediach potenciálne nadmerne alebo nedostatočne reprezentovať skupiny ľudí alebo dokonca ich vôbec nezastupovať. Ak sa napríklad textové výzvy, ktoré obsahujú slovo "gay", zistia ako potenciálne škodlivé alebo urážlivé, mohlo by to viesť k nedostatočnému zastúpeniu legitímnych generácií v komunite LGBTQIA+. Okrem zahrnutia vstupných a výstupných klasifikátorov, doladených modelov, ako aj systémových správ, používame rýchle obohatenie v Designer ako jedno z niekoľkých zmiernení na zníženie rizika obsahu, ktorý príliš alebo nedostatočne zastupuje skupiny ľudí.
-
Nevhodný alebo urážlivý obsah: Funkcia Kopírovať môže potenciálne produkovať iné typy nevhodného alebo urážlivého obsahu. Príkladmi sú možnosť generovať obsah v jednej modalite (napr. zvuk), ktorý je nevhodný v kontexte výzvy alebo v porovnaní s rovnakým výstupom v inej modalite (napr. text). Ďalšími príkladmi sú obrázky generované umelou inteligenciou, ktoré potenciálne obsahujú škodlivé artefakty, ako sú nenávistné symboly, obsah, ktorý sa týka sporných, kontroverzných alebo ideologicky polarizujúcich tém a sexuálne nabitého obsahu, ktorý sa vyhýba filtrom obsahu súvisiaceho so sexuálnym obsahom. Zaviedli sme zmierňovanie rizík s cieľom znížiť riziko generácií, ktoré obsahujú nevhodný alebo urážlivý obsah, ako sú vstupné a výstupné klasifikátory, doladené modely a systémové správy.
-
Spoľahlivosť informácií: Hoci sa kopilot snaží v prípade potreby reagovať so spoľahlivými zdrojmi, umelá inteligencia môže robiť chyby. To by mohlo potenciálne generovať nezmyselný obsah alebo vymyslel obsah, ktorý by mohol znieť rozumne, ale je vecne nepresné. Dokonca aj pri kreslení odpovedí z webových údajov vysokej autority môžu odpovede skresliť tento obsah spôsobom, ktorý nemusí byť úplne presný alebo spoľahlivý. Používateľom pripomíname prostredníctvom používateľského rozhrania a v danej dokumentácii, že kopírovať môže robiť chyby. Naďalej tiež vzdelávame používateľov o obmedzeniach umelej inteligencie, ako je napríklad nabádanie používateľov, aby pred prijatím rozhodnutí alebo konaním na základe odpovedí spoločnosti Copilot skontrolovali skutočnosti. Keď používatelia komunikujú s kopilotom prostredníctvom textu, pokúsi sa uzemniť si vysokokvalitné webové údaje, aby sa znížilo riziko, že generácie nebudú v popredí.
-
Viacjazyčný výkon: Výkon vo viacerých jazykoch môže mať rôzne variácie, pričom v čase vydania aktualizovaného kopílotu sa v angličtine dosiahne najlepší výkon. Zlepšenie výkonu vo všetkých jazykoch je kľúčovou investičnou oblasťou a nedávne modely viedli k zlepšeniu výkonu.
-
Obmedzenia zvuku: Zvukové modely môžu zavádzať iné obmedzenia. Všeobecne povedané, akustická kvalita vstupu reči, nepravdivý hluk, slovná zásoba, diakritika a chyby vloženia môžu tiež ovplyvniť, či kopilot spracúva a uspokojivo reaguje na vstup zvuku používateľa. Keďže navyše výzva používateľa pri používaní funkcie Copilot Voice nespúšťa vyhľadávanie na webe, aplikácia Copilot pravdepodobne nebude môcť reagovať na aktuálne udalosti v hlasovom režime.
-
Závislosť od internetového pripojenia: Aktualizované prostredie kopilotu závisí od internetového pripojenia k funkcii. Narušenia pripojenia môžu mať vplyv na dostupnosť a výkon služby.
Výkon systému
V mnohých systémoch AI je výkon často definovaný vo vzťahu k presnosti (t. j. ako často systém umelej inteligencie ponúka správnu predpoveď alebo výstup). S aplikáciou Copilot sa zameriavame na kopilot ako asistenta s funkciou umelej inteligencie, ktorý odráža preferencie používateľa. Preto sa dvaja rôzni používatelia môžu pozrieť na rovnaký výstup a majú rôzne názory na to, aké užitočné alebo relevantné je pre ich jedinečnú situáciu a očakávania, čo znamená, že výkon týchto systémov musí byť definovaný pružnejšie. Všeobecne sa domnievame, že výkon znamená, že aplikácia funguje tak, ako používatelia očakávajú.
Najvhodnejšie postupy na zlepšenie výkonu systému
Interakcia s rozhraním pomocou prirodzeného konverzačného jazyka. Interakcia s aplikáciou Copilot spôsobom, ktorý je pre používateľa pohodlný, je kľúčom k získaniu lepších výsledkov prostredníctvom prostredia. Podobne ako prijatie techník, ktoré pomáhajú ľuďom efektívne komunikovať vo svojom každodennom živote, interakcia s kopilotom ako asistentom používajúcim umelú inteligenciu prostredníctvom textu alebo reči, ktorá je používateľovi povedomá, môže pomôcť dosiahnuť lepšie výsledky.
Používateľské prostredie a prijatie. Účinné používanie programu Copilot vyžaduje, aby používatelia pochopili jeho možnosti a obmedzenia. Môže existovať krivka učenia a používatelia môžu chcieť odkazovať na rôzne zdroje kopilotu (napríklad tento dokument a naše najčastejšie otázky o kopilote), aby mohli efektívne pracovať so službou a využívať výhody služby.
Mapovanie, meranie a spravovanie rizík
Rovnako ako ostatné transformačné technológie, aj využitie výhod umelej inteligencie nie je bez rizika a základná časť programu zodpovednej umelej inteligencie spoločnosti Microsoft je navrhnutá tak, aby identifikovala a mapovala potenciálne riziká, merala tieto riziká a spravovala ich vytváraním zmierňovania rizík a neustálym zlepšovaním kopilotu v priebehu času. V nasledujúcich častiach popisujeme náš iteračný prístup k mapovanie, meranie a spravovanie potenciálnych rizík.
Mapa: Starostlivé plánovanie a predbežné testovanie protivníka, ako je napríklad červené teaming, nám pomáha mapovať potenciálne riziká. Základné modely, ktoré podporujú prostredie Kopilot, prešli testovaním červeného tímu od testerov, ktorí predstavujú multidisciplinárne perspektívy v príslušných oblastiach témy. Toto testovanie bolo navrhnuté tak, aby vyhodnotilo, ako by najnovšie technológie fungovali s dodatočnými bezpečnostnými opatreniami, ktoré by sa na ňu uplatňovali, aj bez neho. Zámerom týchto cvičení na úrovni modelu je vytvoriť škodlivé reakcie, povrch potenciálne cesty k zneužitiu, a identifikovať možnosti a obmedzenia.
Pred sprístupnením skúsenosti Copilot verejne dostupné v obmedzenom vydaní ukážky, sme tiež vykonali červené teaming na úrovni aplikácie vyhodnotiť Kopilot pre nedostatky a zraniteľnosti. Tento proces nám pomohol lepšie pochopiť, ako by mohol byť systém využitý širokou škálou používateľov a pomohol nám zlepšiť naše zmiernenie rizík.
Meranie: Okrem hodnotenia kopilotu v porovnaní s našimi existujúcimi hodnoteniami bezpečnosti nám použitie červeného teamingu popísaného vyššie pomohlo vyvinúť hodnotenia a zodpovedné metriky umelej inteligencie zodpovedajúce identifikovaným potenciálnym rizikám, ako sú útek z väzenia, škodlivý obsah a neuzemnený obsah.
Zhromaždili sme konverzačné údaje zamerané na tieto riziká pomocou kombinácie ľudských účastníkov a kanála na generovanie automatizovaných konverzácií. Každé hodnotenie potom ohodnotí buď skupina vyškolených ľudských anotátorov, alebo automatizovaný kanál komentárov. Pri každej zmene produktu, aktualizácii existujúcich zmiernení rizík alebo navrhovaní nových zmierňovaní aktualizujeme naše kanály hodnotenia, aby sme vyhodnotili výkon produktu aj zodpovedné metriky AI. Tieto kontextové kanály automatizovaného hodnotenia sú kombináciou zhromaždených rozhovorov s ľudskými hodnotiteľmi a syntetických konverzácií generovaných s LLM výzvami na testovanie politík kontradiktórnem spôsobom. Každé z týchto hodnotení bezpečnosti sa automaticky ohodnotí pomocou llms. Pri novovytvorených hodnoteniach je každé hodnotenie spočiatku ohodnotené ľuďmi, ktorí čítajú textový obsah alebo počúvajú zvukový výstup, a potom sa konvertujú na automatické hodnotenia založené na LLM.
Zamýšľané správanie našich modelov v kombinácii s našimi kanálmi hodnotenia – ľudskými aj automatizovanými – nám umožňuje rýchlo vykonávať merania potenciálnych rizík v rozsahu. Pri identifikovaní nových problémov v priebehu času pokračujeme v rozširovaní množín meraní, aby sme vyhodnotili ďalšie riziká.
Spravovať: Keď sme identifikovali potenciálne riziká a zneužitie prostredníctvom červeného teamingu a merali sme ich pomocou vyššie popísaných prístupov, vyvinuli sme ďalšie zmiernenia, ktoré sú špecifické pre prostredie Kopilot. Nižšie popíšeme niektoré z týchto zmiernení. Budeme pokračovať v monitorovaní skúseností kopilotu s cieľom zlepšiť výkon produktu a náš prístup na zmiernenie rizika.
-
Plány vydania s fázou a nepretržité hodnotenie. Zaviazali sme sa neustále sa učiť a zlepšovať náš prístup k zodpovednej AI tak, ako sa vyvíjajú naše technológie a správanie používateľov. Naša stratégia prírastkového vydania bola základnou súčasťou toho, ako bezpečne presúvame našu technológiu z laboratória do sveta, a sme odhodlaní k úmyselnému, premysleného procesu na zabezpečenie výhod skúseností s kopilotom. V kopilote pravidelne vykonávame zmeny s cieľom zlepšiť výkon produktov a existujúce obmedzenia rizík a implementovať nové zmiernenia v reakcii na naše poznatky.
-
Využitie klasifikátorov a systémových hlásení na zmiernenie potenciálnych rizík alebo zneužitia. V reakcii na výzvy používateľov môžu llms produkovať problematický obsah. Diskutovali sme o typoch obsahu, ktoré sa snažíme obmedziť v častiach Systémové správanie a obmedzenia vyššie. Klasifikátory a systémové hlásenie sú dva príklady zmiernení rizík, ktoré boli implementované v aplikácii Copilot, aby sa znížilo riziko týchto typov obsahu. Klasifikátory klasifikujú text tak, aby označoval potenciálne škodlivý obsah v používateľských výzvach alebo generovaných odpovediach. Využívame aj existujúce najvhodnejšie postupy na využitie systémového hlásenia, ktoré zahŕňa poskytnutie pokynov pre model na zosúladenie jeho správania so zásadami AI spoločnosti Microsoft a očakávaniami používateľov.
-
Súhlas s nahrávaním obrázkov kopilotu. Keď používateľ prvýkrát nahrá obrázok obsahujúci tváre do kopilotu, bude požiadaný, aby poskytol svoj súhlas s nahratým biometrickými údajmi do kopilotu. Ak sa používateľ neprihnú, obrázok sa neodošle do kopilotu. Všetky obrázky bez ohľadu na to, či obsahujú tváre alebo nie, sa odstránia do 30 dní po skončení konverzácie.
-
Zverejnenie AI. Kopilot je tiež navrhnutý tak, aby informoval ľudí, že pracujú so systémom AI. Keď sa používatelia zapájajú do programu Copilot, ponúkame rôzne dotykové body, ktoré im pomôžu pochopiť možnosti systému, zverejniť im, že kopilot je poháňaný umelou inteligenciou a komunikovať obmedzenia. Toto prostredie je navrhnuté tak, aby pomohlo používateľom čo najviac využiť kopilot a minimalizovať riziko nadmernej závislosti. Zverejnenia tiež pomáhajú používateľom lepšie pochopiť kopilot a ich interakcie s ním.
-
Mediálna proveniencia. Keď kopilot vygeneruje obrázok, povolili sme funkciu Poverenia obsahu, ktorá používa kryptografické metódy na označenie zdroja alebo "proveniencie" všetkých obrázkov generovaných umelou inteligenciou vytvorených pomocou kopilotu. Táto technológia využíva normy stanovené koalíciou pre obsah a pravosť (C2PA) na pridanie ďalšej vrstvy dôvery a transparentnosti pre obrázky generované umelou inteligenciou.
-
Automatická detekcia obsahu. Keď používatelia nahrajú obrázky ako súčasť svojej výzvy na konverzáciu, kopilot nasadzuje nástroje na detekciu snímky sexuálneho vykorisťovania a zneužívania detí (CSEAI). Spoločnosť Microsoft hlási všetky zjavné snímky sexuálneho vykorisťovania a zneužívania detí Národnému centru pre nezvestné a zneužívané deti (NCMEC), ako to vyžadujú zákony USA. Keď používatelia nahrajú súbory na analýzu alebo spracovanie, kopilot nasadzuje automatizované skenovanie s cieľom zistiť obsah, ktorý by mohol viesť k rizikám alebo zneužitiu, ako je napríklad text, ktorý by mohol súvisieť s nezákonnými aktivitami alebo škodlivým kódom.
-
Podmienky používania a pravidlá správania. Používatelia by mali dodržiavať príslušné podmienky používania a pravidlá správania spoločnosti Microsoft týkajúce sa zmluvy o ochrane osobných údajov spoločnosti Microsoft a prehlásenie spoločnosti Microsoft o ochrane osobných údajov, ktoré ich okrem iného informuje o prípustných a neprípustných použitiach a dôsledkoch porušenia týchto podmienok. Podmienky používania tiež poskytujú používateľom ďalšie informácie a slúžia ako referencia pre používateľov, aby sa dozvedeli o kopilote. Používatelia, ktorí sa dopúšťajú závažných alebo opakovaných porušení, môžu byť dočasne alebo natrvalo pozastavení zo služby.
-
Spätná väzba, monitorovanie a dohľad. Prostredie Kopilot vychádza z existujúcich nástrojov, ktoré používateľom umožňujú odosielať pripomienky, ktoré sú revidované prevádzkovými tímami spoločnosti Microsoft. Okrem toho sa náš prístup k mapovanie, meranie a riadenie rizík bude aj naďalej vyvíjať, ako sme sa dozvedieť viac, a my sme už robiť vylepšenia na základe pripomienok získaných počas obdobia ukážky.
Ďalšie informácie o zodpovednej AI
Správa o transparentnosti umelej inteligencie spoločnosti Microsoft
Zásady umelej inteligencie spoločnosti Microsoft
Zdroje umelej inteligencie zodpovednej spoločnosti Microsoft
Kurzy Microsoft Azure Learning o zodpovednej umelej inteligencii
Ďalšie informácie o Microsoft Copilot
Informácie o tomto dokumente
© 2024 Microsoft Corporation. Všetky práva vyhradené. Tento dokument sa poskytuje tak, ako je, a slúži len na informačné účely. Informácie a názory vyjadrené v tomto dokumente, vrátane odkazov na URL adresy a iné internetové webové lokality, sa môžu zmeniť bez predchádzajúceho upozornenia. Nesiete riziko jeho používania. Niektoré príklady slúžia len na ilustráciu a sú fiktívne. Nie je zamýšľané ani odvodené žiadne skutočné spojenie.
Tento dokument nemá byť a nemal by sa vykladať ako poskytovanie právneho poradenstva. Jurisdikcia, v ktorej pôsobíte, môže mať rôzne regulačné alebo právne požiadavky, ktoré sa vzťahujú na váš systém AI. Ak si nie ste istí zákonmi alebo predpismi, ktoré sa môžu vzťahovať na váš systém, obráťte sa na právneho špecialistu, najmä ak si myslíte, že by to mohlo mať vplyv na tieto odporúčania. Majte na pamäti, že nie všetky tieto odporúčania a zdroje budú vhodné pre každý scenár, a naopak, tieto odporúčania a zdroje môžu byť pre niektoré scenáre nedostatočné.
Publikované: 10.1.2024
Posledná aktualizácia: 10. 1. 2024