Zadnja posodobitev: 22. oktober 2025

Kaj je Opomba o prosojnosti?

Sistem uporabniškega vmesnika ne vključuje le tehnologije, ampak tudi ljudi, ki jo bodo uporabljali, ljudi, na katere bo ta funkcija vplivala, in okolje, v katerem bo uvedena. Microsoftovi zapiski o prosojnosti so namenjeni razumevanju delovanja tehnologije AI za Copilot, odločitev, ki smo jih izvedli, ki vplivajo na učinkovitost in delovanje sistema, ter o pomenu razmišljanja o celotnem sistemu, tako da lahko uporabniki rešitve Copilot prevzamejo nadzor nad svojimi izkušnjami in razumejo korake, ki jih izvajamo za zagotavljanje varnega in varnega izdelka.

Microsoftovi zapiski o preglednosti so del širših prizadevanj Microsofta, da bi načela uporabniškega vmesnika v praksi. Če želite izvedeti več, glejte Microsoftova načela uporabniškega vmesnika

Osnove Microsoft Copilot

Uvod

Kopilot je izkušnja, ki uporablja električno energijo in pomaga uporabnikom zagotoviti informacije, ki jih iščejo, hkrati pa je pripravljen pomagati uporabnikom pri odgovoru na širok izbor vprašanj, ne glede na situacijo ali temo. Osvežena kopilot presega odgovarjanje na osnovne poizvedbe za pridobivanje informacij in se osredotoča na ustvarjanje vsebine, ki uporabnikom pri dokončanju opravil ponuja proaktivno podporo. Vedno bolj razumemo, kako lahko vmesnik AI pomaga ljudem pri spoznatvi, odkrivanju in večji ustvarjalnosti, zaradi česar smo morali ustvariti drugo vrsto izdelka. Nova izkušnja z rešitvijo Copilot si prizadeva, da bi postala nova vrsta izkušnje, ki je odprta in dinamična, da bi bolje zagovorola potrebe uporabnikov na način, ki je bolj intuitiven.

Svojo obveznost do odgovorne UI pri Microsoftu jemljemo resno. Posodobljena izkušnja z rešitvijo Copilot je bila razvita v skladu z Microsoftovimi načeli AI, Microsoftovo odgovorno AI Standard in v sodelovanju z odgovornimi strokovnjaki za AI v podjetju, vključno z Microsoftovim Uradom za odgovorno delo, našimi inženirji, Microsoft Research in Aether. Več informacij o odgovorni storitvi AI pri Microsoftu lahko izveste tukaj.  

V tem dokumentu smo opisali naš pristop k odgovorni AI za Copilot. Pred izdajo smo izkoriščali Microsoftove, najnaročnejše metode za preslikavo, merjenje in upravljanje morebitnih tveganj ter zlorabe sistema ter za varnost njegovih prednosti uporabnikom. Ko smo nadaljevali z razvojem Kopilota, smo se še naprej naučili in izboljševali svoja odgovorna prizadevanja za AI. Ta dokument se redno posodablja, da bo sporočal naše razvijajoče se procese in metode.  

Ključni izrazi

Razredniki    Modeli strojnega učenja, ki pomagajo razvrstiti podatke v označene razrede ali kategorije informacij. V posodobljeni izkušnji s storitvijo Copilot lahko razrednike uporabljamo na en način, da pomagamo odkriti morebitno škodljivo vsebino, ki so jo predložili uporabniki ali ustvarili v sistemu, da bi zmanjšali ustvarjanje te vsebine in zlorabo ali zlorabo sistema. 

Ozemljitev    Za nekatere pogovore, v katerih uporabniki iščejo informacije, je Copilot podprt v rezultatih iskanja po spletu. To pomeni, da Kopilot svoj odziv prikaže na visoki ravni vsebine iz spleta in zagotavlja citate s hiperpovezavami po ustvarjenih besedilnih odgovorih. Upoštevajte, da uporabniški pozivi v glasovnem načinu trenutno ne sprožijo spletnega iskanja, zato odgovori ne bodo vključevali citatov.

Veliki jezikovni modeli (LLMs)    Veliki jezikovni modeli v tem kontekstu so modeli UI, ki so usposobljeni za velike količine besedilnih podatkov za predvidevanje besed v zaporedjih. Navidezni računalniki lahko izvajajo različna opravila, na primer ustvarjanje besedila, povzemanje, prevajanje, razvrstitev in drugo.

Ublažitev    Metoda ali kombinacija metod, zasnovanih za zmanjšanje morebitnih tveganj, ki lahko nastanejo pri uporabi funkcij AI v kopilotu.

Večmodalni modeli (MMM-i)    Večmodalni modeli (MMM- i) so modeli AI, ki so usposobljeni za različne vrste podatkov, na primer besedilo, slike ali zvok. Ti modeli lahko izvajajo različna opravila, na primer pisanje besedila, opis slik, prepoznavanje govora in iskanje informacij v različnih vrstah podatkov.

Pozivi    Vnosi v obliki besedila, slik in/ali zvoka, ki jih uporabnik pošlje v Copilot za interakcijo s funkcijami AI v kopilotu.

Rdeče skupinsko    Tehnike, ki jih uporabljajo strokovnjaki za oceno omejitev in ranljivosti sistema ter za preskušanje učinkovitosti načrtovanih ublažitev posledic. Red team testing includes testers adopting both benigne in adversarial personas to identify potential risks and are distinct from systematic measurement of risks.

Odgovor    Besedilo, slike ali zvok, ki jih Kopilot izhodi kot odziv na poziv ali kot del naprej in nazaj z uporabnikom. Sopomenke za »odgovor« vključujejo »dokončanje«, »generacijo« in »odgovor«.

Majhni jezikovni modeli (SLM-ji)    Mali jezikovni modeli v tem kontekstu so modeli AI, ki so usposobljeni za manjše, bolj osredotočene količine podatkov v primerjavi z velikimi jezikovnimi modeli. Kljub manjši velikosti lahko slM-ji izvajajo različna opravila, kot so ustvarjanje besedila, povzemanje, prevajanje in razvrstitev. Čeprav se morda ne ujemajo z obsežnimi zmogljivostmi neposrednih sporočil, so navidezni računalniki pogosto bolj učinkoviti z viri in so lahko zelo učinkoviti za določene, ciljno usmerjene aplikacije. 

Sistemsko sporočilo    Sistemsko sporočilo (včasih imenovano tudi »metaprompt«) je program, ki je vodilo delovanja sistema. Deli sistemskega sporočila pomagajo uskladiti delovanje sistema z Microsoftovimi načeli uporabniškega vmesnika in pričakovanji uporabnikov. Sistemsko sporočilo lahko na primer vključuje vrstico, kot je »ne zagotavlja informacij ali ustvarja vsebine, ki bi lahko povzročila fizično, čustveno ali finančno škodo«. 

Zmogljivosti

Delovanje sistema

S kopilotom smo razvili inovativen pristop, ki bo uporabnikom prinesel bolj prilagojeno izkušnjo z uporabniško izkušnjo, ki bo uporabnikom lahko pomagala pri različnih opravilih. Ta inovativni pristop izkorišča različne napredne tehnologije, kot so jezikovni in večmodalni modeli Iz Microsofta, OpenAI in drugih razvijalcev modelov. Pred javno izdajo smo razvijali prilagojen nabor zmogljivosti in vedenja, ki zagotavljajo izboljšano izkušnjo s copilotom, pri izvajanju varnostnih tehnik za modele, na katerih temelji nova izkušnja s kopilotom. V posodobljeni rešitvi Copilot lahko uporabniki pošiljajo pozive v naravnem jeziku besedila ali glasu. Odgovori so predstavljeni uporabnikom v različnih oblikah, na primer odgovori klepeta v besedilni obliki (po potrebi s tradicionalnimi povezavami do spletne vsebine) in slikami (če je bila v okviru poziva poslana zahteva za sliko). Če uporabniki pošljejo pozive v naravnem jeziku v glasovnem načinu kopilota, prejmejo zvočne odgovore. 

Ko uporabnik v kopilotu vnese poziv, so poziv, zgodovina pogovorov in sistemsko sporočilo poslani prek več razredov vnosa, da se filtrira škodljiva ali neprimerna vsebina. To je pomemben prvi korak, ki pomaga izboljšati učinkovitost delovanja modela in ublažiti situacije, v katerih lahko uporabniki poskusijo pozovniti model na način, ki bi bil nevaren. Ko poziv preide skozi razrede vnosov, se pošlje v storitev SLM, da ugotovi, ali zahteva zahteva grounding data from the web and which language model should respond to the request. Vsi modeli ustvarijo odgovor z uporabo uporabnikovega poziva in zgodovine nedavnih pogovorov za kontekstno določanje zahteve, sistemsko sporočilo za poravnavo odzivov z Microsoftovimi načeli AI in pričakovanji uporabnikov, ter po potrebi uskladijo odgovore z rezultati iskanja na podlagi odziva v obstoječi vsebini na visoki ravni v spletu.  

Odgovori so predstavljeni uporabnikom v različnih oblikah, na primer odgovori klepeta v besedilni obliki, tradicionalne povezave do spletne vsebine, slik in zvočnih odgovorov. Ko so odgovori na voljo v obliki besedila in so odgovori podprti v podatkih iz spleta, izhod vsebuje citate s hiperpovezavo, navedene pod besedilom, tako da lahko uporabniki dostopajo do spletnih mest, na podlagi katere so bili uporabljeni rezultati odgovora, in od tam izvejo več o temi. Kopilot lahko zažene tudi kodo za dokončanje zapletenih izračunov in ustvarjanje grafov. Kopilot lahko shrani določena dejstva, ki jih uporabniki zahtevajo, da si zapomnijo, kar ji omogoča ustvarjanje ustreznejših odgovorov in predlogov na podlagi tega konteksta. Kopilot lahko tudi izbriše shranjena dejstva, če uporabniki prosijo, da jih izrecno pozabijo.

Kopilot pomaga uporabnikom tudi ustvariti nove zgodbe, pesmi, besedila pesmi in slike. Ko Copilot zazna uporabnikov namen, da ustvari ustvarjalno vsebino (na primer uporabniški poziv, ki se začne z »napišite mi ...«), bo sistem v večini primerov ustvaril vsebino, ki se odziva na uporabnikov poziv. Ko ko kopilot zazna uporabnikov namen, da ustvari sliko (na primer uporabniški poziv, ki se začne z »nariši mi ...«), bo Kopilot v večini primerov ustvaril sliko, ki se odziva na uporabnikov poziv. Ko Ko Kopilot zazna uporabnikov namen, da spremeni naloženo sliko (na primer uporabniški poziv, ki se začne z »dodaj ...«), bo Kopilot v večini primerov spremenil sliko, ki se odziva na uporabnikov poziv. Kopilot se ne more odzvati z ustvarjalno vsebino, če poziv uporabnika vsebuje določene izraze, ki lahko privedejo do težavne vsebine.

Uporabniki z Microsoftovimi računi (MSA) imajo zdaj tudi možnost, da se naročijo na Copilot Pro, ki ponuja izboljšano izkušnjo, vključno s pospešeno učinkovitostjo delovanja, dalj časa in v nekaterih primerih tudi dostop do novih, eksperimentalnih funkcij. Copilot Pro je trenutno na voljo v omejenem številu držav in načrtujemo, da bodo kmalu Copilot Pro na voljo na več trgih.

Predvideno varno delovanje

Naš cilj rešitve Copilot je uporabnikom v pomoč. Z uporabo najboljših praks iz drugih Microsoftovih izdelkov in storitev za splošno uporabo si prizadevamo, da bi Copilot omejili ustvarjanje problematične vsebine in povečali verjetnost varne in pozitivne uporabniške izkušnje. Čeprav smo se izognili tveganjem, sogenerativni modeli AI, kot so modeli, ki podpirajo Kopilot, probabilistični in lahko delajo napake, kar pomeni, da ublažitve posledic občasno ne blokirajo škodljivih pozivov uporabnikov ali odzivov, ki jih ustvari AI. Če med uporabo rešitve Copilot naletite na škodljivo ali nepričakovano vsebino, nam to sporočite tako, da nam pošljete povratne informacije, da bomo lahko še naprej izboljševali izkušnjo.

Primeri uporabe

Predvidena uporaba

Kopilot je namenjen podpori uporabnikom pri odgovoru na širok izbor vprašanj, ne glede na situacijo ali temo. Uporabniki lahko komunicirajo s kopilotom prek besedilnih, slikovnih in zvočnih vnosov, pri katerih so interakcije bolj podobne naravnim pogovorom s sistemom uporabniškega vmesnika. Če uporabniki komunicirajo z rešitvijo Copilot prek besedila za iskanje določenih informacij o temah, kjer bo Copilot morda zahteval več informacij za točjši odgovor, je namen te izkušnje, da poveže uporabnike z ustreznimi rezultati iskanja, pregleda rezultate iz spleta in povzame informacije, ki jih iščejo uporabniki. V kopilotu lahko uporabniki: 

  • Povzame informacije v realnem času pri klepetu prek besedila.    Ko uporabniki komunicirajo z rešitvijo Copilot prek besedila, sistem izvede spletna iskanja, če potrebuje več informacij, in bo uporabil najboljše rezultate spletnega iskanja, da bo ustvaril povzetek informacij, ki jih bo predstavil uporabnikom. Ti povzetki vključujejo citate na spletne strani za pomoč uporabnikom pri ogledu in preprostem dostopu do virov rezultatov iskanja, ki so pomagali pri povzetku kopilota. Uporabniki lahko kliknejo te povezave in se pomaknejo neposredno na vir, če želijo izvedeti več.

  • Klepetajte s sistemom AI z besedilom.    Uporabniki lahko klepetajo z rešitvijo Copilot prek kratkih sporočil in zastavijo nadaljnja vprašanja, da poiščejo nove informacije in prejmejo podporo v različnih temah.

  • Vmesnik z AI z glasovnimi ukazi in videzi.    Kopilot ne more prejemati le zvočnega vhoda, ampak tudi ustvariti zvočni izhod v enem od štirih glasov, ki jih izbrali uporabniki, in predstaviti vizualni videz za obogatitev interakcije. Audio-to-audio and appearance capabilities enable users to interact with Copilot in a more natural and fluid manner.

  • Prejmite vsebino z vsebinami z vsebinami z vsebinami z prebavljivimi novicami.    Uporabniki lahko s storitvijo Copilot prek funkcije Dnevni pregled Copilot prejmejo povzetek novic, vremena in drugih posodobitev na podlagi izbranih tem in prisluhnejo tem sporočilom v obliki poddaj. Ta funkcija bo pridobivala vsebino iz pooblaščenih virov, ki imajo sklenjene pogodbe z Microsoftom.

  • Pridobite pomoč pri ustvarjanju novih zamisli.    Vsakič, ko uporabniki uporabljajo izkušnjo s kopilotom, bodo videli nabor kartic, ki jih lahko kliknejo in začnejo klepetati s kopilotom o uporabnih in zanimivih temah. Če so uporabniki komunicirali z drugimi Microsoftovimi potrošniškimi storitvami, bodo kartice prilagojene v skladu z našimi pravilniki o zasebnosti. Sčasoma so kartice v kopilotu lahko prilagojene glede na zgodovino klepetov uporabnika. Uporabniki lahko v nastavitvah kadar koli zavrnejo sodelovanje pri prilagajanju.

  • Ustvarite ustvarjalno vsebino.    Ko klepetajo s copilotom, lahko uporabniki s pomočjo izkušnje Copilot ustvarijo nove pesmi, šale, zgodbe, slike in drugo vsebino. Kopilot lahko tudi ureja slike, ki jih na zahtevo prenesejo uporabniki.

  • Izvajajte opravila v sistemu Android.Uporabniki lahko komunicirajo s kopilotom prek platforme Android prek glasu za izvajanje določenih opravil. Ta opravila nastavljajo časovnike in budilke, izvajajo telefonske klice, pošiljate sporočila SMS in naročajo Uber. Preden so opravila dokončana, morajo uporabniki potrditi telefonski klic, sporočilo SMS in naročilo Uber.

  • Pomoč pri raziskovanju.  Kopilot lahko izvaja raziskovalna opravila tako, da brska po poglobljenih virih, ponudi podrobne razčlenitve tem in se poveže z viri, ki uporabnikom pomagajo pri preseganju hitrih odgovorov za zahtevne poizvedbe. Kopilot lahko proaktivno ustvari prilagojene raziskovalne predloge za uporabnike na podlagi stvari, kot so pretekle raziskovalne poizvedbe in pomnilnik rešitve Copilot. Uporabniki lahko v nastavitvah kadar koli zavrnejo sodelovanje pri prilagajanju ali obvestilih.

  • Raziščite svet s Vizualni pomočnik Copilot. Kopilot si lahko ogleda vaš zaslon ali vir mobilne kamere in uporabi svoj glas za odgovarjanje na vprašanja in interakcijo z vami. Kopilot lahko sproti pregleduje, analizira in ponuja vpoglede in predloge ter vam pomaga pri delu, brskanju ali raziskovanju sveta. Vizualni pomočnik Copilot na voljo v brskalnikih Edge, Windows, iOS in Android.

  • Pridobivanje informacij s povezovalniki.Z vašo privolitvijo lahko Kopilot išče in uporablja datoteke v oblaku v naravnem jeziku. Kopilot lahko pridobi e-poštna sporočila, poišče stike in preveri sestanke v koledarju iz Microsoft Outlooka in računa Google Gmail. 

  • Sodelujte s kopilotovimi skupinami. S povabilom se lahko pridružite ali ustvarite skupinske pogovore s kopilotom za sodelovanje pri skupnih projektih in zamislih.

Priporočila pri izbiranju drugih primerov uporabe

Uporabnike spodbujamo, da pregledajo vso vsebino, preden se odločajo ali ukrepajo na podlagi odgovorov rešitve Copilot, saj lahko vmesnik AI naredi napake. Poleg tega obstajajo nekateri scenariji, ki se jim priporočamo, da se jim izognete ali pa so v skladu z našimi pogoji uporabe. Microsoft na primer ne dovoljuje uporabe rešitve Copilot v zvezi z nezakonitimi dejavnostmi ali za kateri koli namen, namenjen spodbujanju nezakonite dejavnosti.  

Omejitve

Jezikovni, slikovni in zvočni modeli, ki so pod prenizki izkušnji s storitvijo Copilot, lahko vključujejo podatke o usposabljanju, ki lahko odražajo družbene prednaslove, ki pa lahko povzročijo, da Copilot deluje na načine, ki so zaznani kot nepošteni, nezanesljivi ali žaljivi. Kljub našemu intenzivnemu modelu usposabljanja in natančnejše prilagoditve varnosti ter izvajanju odgovornih sistemov za UI in varnostne sisteme, ki jih izvajamo v zvezi s podatki o usposabljanju, pozivi uporabnikov in rezultati modelov, so storitve, ki temeljijo na AI, verjetne in verjetne. Zaradi tega je težko celovito blokirati vso neprimerno vsebino, zaradi česar pride do tveganj, ki bi jih lahko povzročala morebitna biase, stereotipi, neobvlačnost ali druge vrste škode, ki bi se lahko pojavile v vsebini, ustvarjeni z AI. Tukaj so navedeni nekateri načini, kako se te omejitve lahko pokažejo v izkušnji z rešitvijo Copilot. 

  • Stereotipi: Izkušnja s Kopilotom lahko potencialno okrepi stereotipe. Ko na primer prevajate »He is a nurse« in »She is a doctor« v jezik brez spola, kot je turščina, in nato nazaj v angleščino, lahko Kopilot nenamerno da stereotipske (in nepravilne) rezultate »She is a nurse« in »He is a doctor« (Zdravnik). Drug primer je pri ustvarjanju slike, ki temelji na pozivu »Otroci brez očeta«, lahko sistem ustvari slike otrok samo iz ene rase ali etnične pripadnosti, s čimer je okrepil škodljive stereotipe, ki bi lahko obstajali na javno razpoložljivih slikah, ki se uporabljajo za usposabljanje temeljnih modelov. Kopilot lahko tudi okrepi stereotipe, ki temeljijo na vsebini vhodne slike uporabnika, tako da se zanaša na dele slike in predpostavke, ki morda niso resnične. Izvedejo smo ublažitve posledic za zmanjšanje tveganja za vsebino, ki vsebuje žaljive stereotipe, vključno s razredniki vnosa in izhoda, natančno prilagojenimi modeli in sistemskimi sporočili.

  • Prekomerna predstavitev in nezadostna predstavitev: Kopilot bi lahko bil prekomerno ali premalo predstavljal skupine ljudi ali pa jih sploh ne predstavlja v svojih odgovorih. Če so na primer besedilni pozivi, ki vsebujejo besedo »gej«, zaznani kot morebitno škodljivi ali žaljivi, lahko to privede do premalo predstavitev zakonitih generacij o skupnosti LGBTQIA+. Poleg vključevanje vhodnih in izhodnih razredov, natančno oblikovanih modelov in sistemskih sporočil, smo v sistemu Designer uporabili takoj obogatitev kot eno od številnih ublažitev posledic, s katerimi zmanjšamo tveganje, da bo vsebina preveč ali podcenjena za skupine ljudi.

  • Neprimerna ali žaljiva vsebina: Izkušnja s storitvijo Copilot lahko povzroči druge vrste neprimerne ali žaljive vsebine. Primeri vključujejo zmožnost ustvarjanja vsebine z eno modalnostjo (npr. zvok), ki ni primerna v kontekstu poziva, ali v primerjavi z istim rezultatom v drugi modalnosti (npr. besedilu). Drugi primeri vključujejo slike, ustvarjene z UI, ki bi lahko vsebovale škodljive artefakte, kot so simboli sovraštva, vsebina, povezana s spornimi, kontroverzno ali ideološko polariziranimi temami, ter spolno zaračunana vsebina, ki izhlapi filtri za spolno vsebino. S tem smo zmanjšali tveganje generacij, ki vsebujejo neprimerno ali žaljivo vsebino, kot so razredniki vnosa in izhoda, natančno prilagojeni modeli in sistemska sporočila.

  • Zanesljivost informacij: Kopilot si prizadeva, da bi se po potrebi odzval z zanesljivimi viri, lahko UI naredi napake. Lahko bi ustvaril nesmistično vsebino ali ustvaril vsebino, ki bi lahko zvenela razumno, vendar dejansko netočna. Tudi ko narišete odgovore iz spletnih podatkov visokega organa, lahko odgovori napačno prikažejo to vsebino na način, ki morda ni popolnoma točen ali zanesljiv. Uporabnike opomnimo prek uporabniškega vmesnika in dokumentacije, kot je ta, da lahko Kopilot naredi napake. Uporabnike še naprej izobražujemo o omejitvah uporabniške uporabniške vmesnike, na primer spodbujamo jih, da še naprej preverjajo dejstva, preden sprejemajo odločitve ali delujejo na podlagi odzivov podjetja Copilot. Ko uporabniki komunicirajo s Kopilotom prek besedila, se bodo poskušali zapisati v visokokakovostne spletne podatke, da bi zmanjšali tveganje, da se generacije ne bi zamotile.

  • Večjezikovna učinkovitost delovanja: v različnih jezikih so lahko razlike, angleščina pa najbolje deluje v času izdajanja posodobljenega kopilota. Izboljšanje učinkovitosti delovanja v različnih jezikih je ključno naložbeno področje, nedavni modeli pa so izboljšali učinkovitost delovanja.

  • Omejitve zvoka: Zvočni modeli lahko uvedejo druge omejitve. V širšem smislu lahko akustično kakovost vnosa govora, ne govornega hrupa, besedišča, naglasov in napak vstavljanja vpliva tudi na to, ali Kopilot obdela in se ustrezno odzove na uporabnikov zvočni vnos. Ker uporabniki ob uporabi rešitve Copilot Voice ne sprožijo spletnih iskav, se kopilot morda ne bo mogel odzvati na trenutne dogodke v glasovnem načinu.

  • Odvisnost od internetne povezave: Posodobljena izkušnja s storitvijo Copilot temelji na povezljivosti z internetom za delovanje. Motnje povezljivosti lahko vplivajo na razpoložljivost in učinkovitost delovanja storitve.

Učinkovitost delovanja sistema

V številnih sistemih AI je učinkovitost delovanja pogosto opredeljena glede na natančnost (tj. kako pogosto sistem AI ponuja pravilno napoved ali izhod). S Kopilotom smo osredotočeni na Kopilota kot pomočnik, ki uporablja glasovno pomočnico, ki odraža uporabnikove želje. Zato si lahko dva različna uporabnika ogledata isti rezultat in ima različna mnenja o tem, kako koristni ali pomembni so njihovi edinstveni položaji in pričakovanja, kar pomeni, da je treba učinkovitost delovanja teh sistemov opredeliti prožneje. Na splošno priporočamo, da učinkovitost delovanja pomeni, da aplikacija deluje v skladu s pričakovanji uporabnikov.

Najboljše prakse za izboljšanje učinkovitosti delovanja sistema 

Komunicirajte z vmesnikom z naravnim jezikom pogovora.    Interakcija s kopilotom na način, ki je za uporabnika udoben, je ključna za izboljšanje rezultatov s pomočjo izkušnje. Podobno kot pri sprejemanju tehnik za učinkovito komunikacijo ljudi v njihovem vsakdanjem življenju, interakcijo s Kopilotom kot pomočnikom, ki uporablja glasovne storitve, bodisi prek besedila ali govora, ki ga uporabnik pozna, lahko pomaga pri boljših rezultatih.

Uporabniška izkušnja in uvedba.    Učinkovita uporaba kopilota zahteva, da uporabniki razumejo zmogljivosti in omejitve. Morda obstaja krivulja učenja in uporabniki se bodo morda želeli sklicevati na različne vire kopilota (npr. ta dokument in pogosta vprašanja o naših kopilotih) za učinkovito interakcijo s storitvijo in uporabo te storitve.

Preslikava, merjenje in upravljanje tveganj

Tako kot druge tehnologije preoblikovanja tudi izkoriščanje prednosti AI ni brez tveganja, temeljni del Microsoftovega programa za odgovorno oceno AI pa je zasnovan tako, da prepozna in preslika morebitna tveganja, izmeri ta tveganja in jih upravlja z oblikovanjem ublažitev posledic in nenehno izboljševanjem kopilota v določenem časovnem obdobju. V razdelkih spodaj smo opisali naš iterativni pristop za merjenje, merjenje in upravljanje potencialnih tveganj.

Zemljevid: S previdnim načrtovanjem in negativiranjem pred uvedbo, kot je rdeče skupinsko povezovanje, lahko preslikamo morebitna tveganja. Osnovni modeli, ki napajajo izkušnjo z rešitvijo Copilot, so bili v okviru rdeče ekipe testerji, ki predstavljajo večdisciplinarne perspektive na ustreznih področjih teme. S tem testiranjem smo ocenili, kako bi najnovejša tehnologija delovala tako z nobenim dodatnim zaščitnim varstvom kot tudi brez zaščite. Namen teh vaj na ravni modela je ustvariti škodljive odzive, morebitne možnosti za zlorabo površine ter prepoznavanje zmogljivosti in omejitev.

Pred tem, ko je bila izkušnja z rešitvijo Copilot javno dostopna v omejenem predogledu izdaje, smo izvedli tudi rdeče skupinsko skupinsko delo na ravni aplikacij, da smo ocenili pomanjkljivosti in ranljivosti rešitve Copilot. Ta postopek nam je pomagal bolje razumeti, kako lahko sistem uporabljajo številni uporabniki, in nam pomagal izboljšati ublažitev posledic.

Ukrep: Poleg ocene kopilota glede na obstoječe varnostne ocene nam je zgoraj opisana uporaba rdeče skupine pomagala razviti ocene in odgovorne metrike AI, ki ustrezajo opredeljenim morebitnim tveganjem, kot so beg iz zapora, škodljiva vsebina in neokrožena vsebina.

Zbrali smo podatke pogovora, ki so bili usmerjeni v ta tveganja, in to z uporabo kombinacije človeških udeležencev in cevovoda za ustvarjanje avtomatiziranih pogovorov. Vsako vrednotenje nato oceni bodisi skupina usposobljenih človeških annotatorjev ali avtomatiziran cevovod za opombe. Vsakič, ko se spremenijo izdelki, se posodobijo obstoječe ublažitve posledic ali se predlagajo nove ublažitve posledic, posodobimo naše cevovode za vrednotenje, da ocenimo učinkovitost delovanja izdelka in odgovorno metriko AI. Ti priročni cevovodi za avtomatizirano vrednotenje so kombinacija zbranih pogovorov s človeškimi ocenjevalci in sintetičnimi pogovori, ustvarjenimi z navideznimi sporočili, ki so pozvani, da pravilnike preskusite na slovnični način. Vsaka od teh varnostnih ocen se samodejno oceni z navideznimi sporočili. Za novo razvite ocene vsaka ocena najprej ocenijo oznake ljudi, ki preberejo besedilno vsebino ali poslušajo zvočni izhod in jih nato pretvorijo v samodejne ocene na osnovi funkcije LLM.

Namen delovanja naših modelov v kombinaciji z našimi cevovodi za ocenjevanje – tako človeški kot tudi avtomatizirani – nam omogoča hitro merjenje potencialnih tveganj v obsegu. Ko sčasoma prepoznamo nove težave, še naprej širimo nabore mer, da ocenimo dodatna tveganja. 

Upravljanje: Kot smo prepoznali morebitna tveganja in zlorabo z rdečim skupinsko povezovanjem in jih izmerili s pristopi, opisanimi zgoraj, smo razvili dodatne ublažitve posledic, ki so značilne za izkušnjo s copilotom. Spodaj so opisane nekatere od teh ublažitev posledic. Še naprej bomo nadzirali izkušnjo z rešitvijo Copilot za izboljšanje učinkovitosti delovanja izdelka in našega pristopa k ublažitvi tveganja. 

  • Paketi postopne izdaje in nenehno vrednotenje.    Zavezani smo k izobraževanju in nenehnemu izboljševanju našega pristopa k odgovorni UI, saj se naše tehnologije in vedenje uporabnikov razvijajo. Naša postopna strategija izdaje je bila osrednji del tega, kako lahko varno premikamo našo tehnologijo iz laboratorija v svet, pri čemer smo predani namernim, premišljenem procesu, ki nam pomaga pri izkušnji s Copilotom. Redno spreminjamo kopilot, da bi izboljšali učinkovitost delovanja izdelka in obstoječe ublažitve posledic ter uvedli nove ublažitve posledic kot odziv na naše ugotovitve.

  • Uporaba iskalnikov razreda in sistemskega sporočila za preprečevanje morebitnih tveganj ali zlorab.    Kot odziv na pozive uporabnikov lahko navideznim uporabnikom prikažejo težavno vsebino. V zgornjih razdelkih Delovanje sistema in omejitve smo razpravljali o vrstah vsebine, ki jih poskušamo omejiti. Razredniki in sistemsko sporočilo sta dva primera ublažitev posledic, ki so bila uvedena v kopilotu, da bi zmanjšali tveganje za te vrste vsebin. Razvrstitelji razredov razvrstijo besedilo tako, da označi morebitno škodljivo vsebino v pozivih uporabnika ali ustvari odgovore. Uporabljamo tudi obstoječe najboljše prakse za uporabo sistemskega sporočila, ki vključuje dajanje navodil modelu za usklajevanje njegovega delovanja z Microsoftovimi načeli uporabniškega vmesnika in pričakovanji uporabnikov.

  • Kopilot se strinja s nalaganjem slik.    Ko uporabnik prvič prenese sliko z obrazi v kopilot, mora dati soglasje za nalaganje biometričnih podatkov v Kopilot. Če uporabnik ne privoli v sodelovanje, slika ne bo poslana v Copilot. Vse slike, ne glede na to, ali vsebujejo obraze ali ne, so izbrisane v 30 dneh po koncu pogovora.

  • Razkritje UI.    Kopilot je namenjen tudi obveščanju ljudi o interakciji s sistemom AI. Ko uporabniki sodelujejo s kopilotom, nudimo različne točke dotika, ki so zasnovane tako, da jim pomagajo razumeti zmožnosti sistema, jim razkriti, da kopilot uporablja tehnologijo AI, in sporočati omejitve. Izkušnja je zasnovana tako, da uporabnikom pomaga kar najbolje izkoristiti Kopilot in zmanjša tveganje prekomernereliance. Razkritja uporabnikom pomagajo tudi bolje razumeti Kopilota in njihove interakcije z njim.

  • Predstavnostni provenans.    Ko Ko Kopilot ustvari sliko, smo omogočili funkcijo »Poverilnice za vsebino«, ki uporablja kriptografske metode za označevanje vira ali »izvora« vseh slik, ustvarjenih z AI, ustvarjenimi z rešitvijo Copilot. Ta tehnologija uporablja standarde, ki jih je nastavila premogovnika za vsebino in pristnost (C2PA), da doda dodatno raven zaupanja in preglednosti za slike, ustvarjene z AI.

  • Samodejno zaznavanje vsebine.    Ko uporabniki v okviru poziva za klepet prenesejo slike, Copilot uvede orodja za odkrivanje otroškega spolnega izkoriščanja in zlorabe slik (CSEAI). Microsoft vse očitne podatke CSEAI poroča Nacionalnemu centru za pogrešane in izkoriščane otroke (NCMEC), kot to zahteva zakonodaja ZDA. Ko uporabniki prenesejo datoteke za analizo ali obdelavo, Kopilot uvede avtomatizirano pregledovanje za zaznavanje vsebine, ki bi lahko privedla do tveganja ali zlorabe, kot je besedilo, ki bi lahko bilo povezano z nelegalnimi dejavnostmi ali zlonamerno kodo.

  • Pogoji uporabe in pravila obnašanja.    Uporabniki morajo upoštevati veljavne pogoje uporabe in kodeksa obnašanja za Microsoftove storitve podjetja Copilot in Microsoftovo izjavo o zasebnosti, ki jih med drugim obvešča o dovoljenih in neosebnih uporabah ter posledicah kršitve pogojev. Pogoji uporabe nudijo tudi dodatna razkritja za uporabnike in služijo kot referenca za uporabnike, da izvejo več o rešitvi Copilot. Uporabniki, ki kršijo resne ali ponavljajoče se kršitve, so lahko začasno ali trajno blokirani v storitvi.

  • Povratne informacije, spremljanje in nadzor.    Izkušnja s kopilotom gradi na obstoječem orodju, ki uporabnikom omogoča pošiljanje povratnih informacij, ki jih pregledujejo Microsoftove operacijske ekipe. Poleg tega se bo naš pristop k preslikavi, merjenju in upravljanju tveganj še naprej razvijal, ko bomo izvedeli več, in že zdaj izboljšujemo na podlagi povratnih informacij, zbranih med predoglednimi obdobji.

Preberite več o odgovorni storitvi uporabniškega vmesnika

Microsoft Responsible AI Transparency Report

Microsoftova načela AI

Microsoftovi odgovorni viri za AI

Tečaji Microsoft Azure Learning o odgovorni UI

Preberite več o Microsoft Copilot

Microsoft Copilot pogosta vprašanja

O tem dokumentu

© 2024 Microsoft Corporation. Vse pravice pridržane. Ta dokument je na voljo »kot je« in samo v informativne namene. Informacije in pogledi, izraženi v tem dokumentu, vključno z URL-jem in drugimi sklici na internetna spletna mesta, se lahko spremenijo brez predhodnega obvestila. Tveganje v zvezi z njeno uporabo pa nosite sami. Nekateri primeri so prikazani le za ilustracije in so izmišljeni. Nobena realna povezava ni predvidena ali se ne določi.

Ta dokument ni namenjen temu, da bi se lahko razlagal kot pravni nasvet. Pristojnost, v kateri trenutno uporabljate, ima lahko različne regulativne ali pravne zahteve, ki veljajo za vaš sistem uporabniškega vmesnika. Če niste prepričani o zakonodaji ali predpisih, ki bi lahko veljali za vaš sistem, se posvetujte s strokovnjakom, še posebej, če menite, da bi ti lahko vplivali na ta priporočila. Upoštevajte, da vsa ta priporočila in viri ne bodo ustrezni za vse scenarije, in nasprotno, ta priporočila in viri morda ne bodo dovolj za nekatere scenarije.

Objavljeno: 10/01/2024

Zadnja posodobitev: 01. 10. 2024

Ali potrebujete dodatno pomoč?

Ali želite več možnosti?

Raziščite ugodnosti naročnine, prebrskajte izobraževalne tečaje, preberite, kako zaščitite svojo napravo in še več.