Zadnje ažuriranje: svibanj 2025.

Što je obavijest o transparentnosti?

Sustav AI ne obuhvaća samo tehnologiju, već i osobe koje će je koristiti, osobe na koje će utjecati i okruženje u kojem se implementira. Microsoftove bilješke o transparentnosti namijenjene su da bi vam pomogle da shvatite kako funkcionira tehnologija AI koja se temelji na sustavu Copilot, koje smo odabrali da utječu na performanse i ponašanje sustava te važnost razmišljanja o cijelom sustavu da bi korisnici tvrtke Copilot mogli preuzeti kontrolu nad vlastitim iskustvima i razumjeti korake koje radimo za pružanje sigurnog i sigurnog proizvoda.

Microsoftove bilješke o transparentnosti dio su šireg nastojanja Microsofta da uvježba naša načela AI-ja. Dodatne informacije potražite u članku Microsoftova načela AI-ja

Osnove Microsoft Copilot

Uvod

Copilot je sučelje utemeljeno na AI-u koje će korisnicima pružiti informacije koje traže dok su spremni pružiti podršku korisnicima u odgovaranju na širok raspon pitanja bez obzira na situaciju ili temu. Osvježeni Copilot nadilazi odgovaranje na osnovne upite za dohvaćanje informacija i fokusira se na generiranje sadržaja radi ponude proaktivnije podrške korisnicima prilikom dovršavanja zadataka. Sve više razumijemo kako AI može pomoći ljudima da uče, otkrivaju i da su kreativni, što je od nas zahtijevalo da napravimo drugu vrstu proizvoda. Novo sučelje tvrtke Copilot nastoji postati nova vrsta iskustva koje je otvoreno i dinamično radi boljeg rješavanja korisničkih potreba na intuitivniji način.

U Microsoftu ozbiljno prihvaćamo svoju predanost odgovornom AI-ju. Ažurirano sučelje za Copilot razvijeno je u skladu s Microsoftovim načelima AI-ja, Microsoftovim odgovornim AI-jem Standard i u suradnji s odgovornim stručnjacima za AI u cijeloj tvrtki, uključujući Microsoftov Ured odgovornog AI-ja, naše inženjerske timove, Microsoft Research i Aether. Dodatne informacije o odgovornoj AI-u potražite ovdje u Microsoftu.  

U ovom dokumentu opisujemo naš pristup odgovornoj AI-u za Copilot. Prije izdanja iskoristili smo Microsoftove najsuzdane metode za mapiranje, mjerenje i upravljanje potencijalnim rizicima i zloupotrebom sustava te za osiguranje njegovih prednosti za korisnike. Kako smo nastavili razvijati Copilot, nastavili smo učiti i poboljšavati svoje odgovorne napore za AI. Ovaj će se dokument povremeno ažurirati radi komunikacije o našim procesima i metodama u razvoju.  

Ključni pojmovi

Klasifikatori    Modeli strojnog učenja koji olakšavaju sortiranje podataka u označene razrede ili kategorije informacija. U ažuriranom sučelju kopilota jedan je od načina na koji koristimo klasifikatori otkrivanje potencijalno štetnih sadržaja koje su poslali korisnici ili generirao sustav radi ublažavanje generiranja tog sadržaja i zloupotrebe ili zloupotrebe sustava. 

Uzemljenje    Za određene razgovore u kojima korisnici traže informacije, Copilot se nalazi u rezultatima pretraživanja weba. To znači da Copilot centriraju svoj odgovor na visoko rangirani sadržaj s weba i sadrži hiperveze navode nakon generiranih tekstualnih odgovora. Imajte na umu da korisnik trenutno traži u glasovnom načinu rada neće pokrenuti pretraživanje weba, stoga nijedan odgovor neće sadržavati navode.

Veliki jezični modeli (LLMs)    Veliki jezični modeli (LLM-i) u ovom su kontekstu AI modeli koji su obučeni za velike količine tekstnih podataka za predviđanje riječi u nizu. LLMs mogu obavljati razne zadatke, kao što su generiranje teksta, sažimanje, prijevod, klasifikacija i još mnogo toga.

Oslabljenje    Metoda ili kombinacija metoda osmišljenih za smanjenje potencijalnih rizika koji mogu nastati korištenjem značajki AI unutar copilota.

Višemodalni modeli (MMM-i)    Višemodalni modeli (MMM-i) AI modeli su obučeni za različite vrste podataka, kao što su tekst, slike ili zvuk. Ti modeli mogu obavljati razne zadatke, kao što su pisanje teksta, opis slika, prepoznavanje govora i pronalaženje informacija u različitim vrstama podataka.

Upiti    Unosi u obliku teksta, slika i/ili audiozapisa koje korisnik šalje tvrtki Copilot radi interakcije sa značajkama AI-ja u tvrtki Copilot.

Red teaming    Tehnike koje stručnjaci koriste za procjenu ograničenja i slabih točaka sustava te za testiranje učinkovitosti planiranih ublažavanja. Testiranje crvenog tima obuhvaća testera koji usvajaju i bezopasne i suparničke osobnosti radi prepoznavanja potencijalnih rizika i razlikuje se od sustavnog mjerenja rizika.

Odgovori    Tekst, slike ili zvuk koji Copilot izlazi kao odgovor na upit ili kao dio naprijed-natrag s korisnikom. Sinonimi za "odgovor" obuhvaćaju "dovršetak", "generiranje i "odgovor".

Modeli malih jezika (SLM-i)    Mali jezični modeli (SLM-i) u ovom su kontekstu AI modeli koji su obučeni za manje i fokusiranije količine podataka u usporedbi s velikim jezičnim modelima. Unatoč manjim veličinama, SLM-i mogu obavljati razne zadatke, kao što su generiranje teksta, sažimanje, prijevod i klasifikacija. Iako se ne podudaraju s opsežnim mogućnostima LLM-a, SLM-i su često resursno učinkovitiji i mogu biti vrlo učinkoviti za specifične, ciljane aplikacije. 

Poruka sustava    Poruka sustava (ponekad se naziva i "metaprompt") program je koji služi kao vodič za ponašanje sustava. Dijelovi poruke sustava olakšavaju poravnanje ponašanja sustava s Microsoftovim načelima AI-ja i očekivanjima korisnika. Na primjer, poruka sustava može sadržavati redak kao što je "nemojte pružati informacije ni stvarati sadržaj koji bi mogao uzrokovati fizičku, emocionalnu ili financijsku štetu". 

Mogućnosti

Ponašanje sustava

Uz Copilot razvili smo inovativan pristup kako bismo korisnicima omogućili personaliziranije korisničko iskustvo za privlačno iskustvo koje korisnicima može pomoći u raznim zadacima. Taj inovativni pristup koristi razne napredne tehnologije, kao što su modeli jezika i više modalnih modela tvrtke Microsoft, OpenAI i drugi razvojni inženjeri modela. Radili smo na implementaciji sigurnosnih tehnika za modele u pozadini novog iskustva copilota prije javnog izdanja kako bismo razvili prilagođeni skup mogućnosti i ponašanja koji pružaju poboljšano iskustvo kopilota. U ažuriranom sustavu Copilot korisnici mogu slati upite u tekstu ili glasu na prirodnom jeziku. Odgovori se prikazuju korisnicima u nekoliko različitih oblika, kao što su odgovori na čavrljanje u tekstnom obliku (s tradicionalnim vezama na web-sadržaj po potrebi) i slikama (ako je zahtjev za sliku poslan kao dio upita). Ako korisnici šalju upite govorom na prirodnom jeziku u načinu rada Copilot Voice, primit će zvučne odgovore. 

Kada korisnik u copilot uđe u upit, upit, povijest razgovora i sistemsku poruku šalju se putem nekoliko razreda unosa da bi se lakše filtrirao štetan ili neprikladan sadržaj. To je ključan prvi korak za poboljšanje performansi modela i ublažavanje situacija u kojima korisnici mogu pokušati zatražiti model na način koji bi mogao biti nesiguran. Kada upit prođe kroz klasifikatori unosa, šalje se u SLM da bi se utvrdilo je li za zahtjev potrebno uzemiti podatke s weba i koji bi jezični model trebao odgovoriti na zahtjev. Svi modeli generiraju odgovor pomoću korisnikov upit i nedavne povijesti razgovora da bi se kontekstizirao zahtjev, poruka sustava radi usklađivanja odgovora s načelima Microsoftovih AI-ja i očekivanjima korisnika te, ako je potrebno, uskladiti odgovore s rezultatima pretraživanja na temelju odgovora na temelju postojećeg sadržaja visokog rangiranja s weba.  

Odgovori se prikazuju korisnicima u nekoliko različitih oblika, kao što su odgovori na čavrljanje u tekstnom obliku, tradicionalne veze na web-sadržaj, slike i zvučne odgovore. Kada se odgovori navode u obliku teksta – a odgovori se uzeme u podacima s weba – izlaz sadrži navode s hipervezama navedene ispod teksta da bi korisnici mogli pristupiti web-mjestima koja su korištena za utegnuto odgovaranje i saznati više o temi s tog mjesta. 

Copilot korisnicima omogućuje i stvaranje novih priča, pjesama, tekstova pjesama i slika. Kada Copilot otkrije korisničku namjeru za generiranje kreativnog sadržaja (kao što je upit korisnika koji počinje s "write me a ..."), sustav će u većini slučajeva generirati sadržaj responzivan na korisnikov upit. Slično tome, kada Copilot otkrije namjeru korisnika da generira sliku (npr. upit korisnika koji počinje s "nacrtaj mi ..."), Copilot će u većini slučajeva generirati sliku koja odgovara korisniku. Kada Copilot otkrije namjeru korisnika da izmijeni prenesenu sliku (kao što je upit korisnika koji počinje s "add a ..."), Copilot će u većini slučajeva izmijeniti sliku koja odgovara korisnikov upitu. Copilot možda neće odgovoriti kreativnim sadržajem kada korisnik zatraži određene termine koji bi mogli rezultirati problematičnim sadržajem.

Korisnici s Microsoftovim računima (MSA) sada imaju i mogućnost pretplate na Copilot Pro, što nudi poboljšano iskustvo, uključujući ubrzane performanse, korištenje značajki Copilot Voice dulje vrijeme, a u nekim slučajevima i pristup novim eksperimentalnim značajkama. Copilot Pro je trenutno dostupan u ograničenom broju država i planiramo da Copilot Pro uskoro bude dostupno na više tržišta.

Predviđeno ponašanje sigurnosti

Naš je cilj za Copilot biti koristan korisnicima. Iskorištavanjem najboljih praksi drugih Microsoftovih proizvodnih proizvoda i usluga za AI nastojimo ograničiti Copilotu stvaranje problematičnog sadržaja i povećati vjerojatnost sigurnog i pozitivnog korisničkog iskustva. Iako smo poduzeli korake za ublažavanje rizika, generativni modeli AI kao što su oni iza Kopilota su probabilistički i mogu napraviti pogreške, što znači da ublažavanja ponekad ne mogu blokirati štetne korisničke upite ili odgovore koje generira AI. Ako naiđete na štetan ili neočekivan sadržaj prilikom korištenja servisa Copilot, javite nam slanjem povratnih informacija da bismo mogli nastaviti poboljšavati iskustvo.

Korištenje slučajeva

Namjena

Copilot je namijenjen podršci korisnicima u odgovaranju na širok raspon pitanja bez obzira na situaciju ili temu. Korisnici mogu stupiti u interakciju s kopilotom pomoću teksta, slike i audioulaza u kojima su interakcije namijenjene kao prirodni razgovori sa sustavom AI. Osim toga, ako korisnici komuniciraju s kopilotom putem teksta radi traženja određenih informacija o temama u kojima copilot može zahtijevati dodatne informacije da bi mogao dati točniji odgovor, okruženje je namijenjeno povezivanju korisnika s relevantnim rezultatima pretraživanja, pregled rezultata s weba i sažimanje informacija koje korisnici traže. U sustavu Copilot korisnici mogu: 

  • Sažmite informacije u stvarnom vremenu prilikom čavrljanja putem teksta.    Kada korisnici komuniciraju s kopilotom putem teksta, sustav će izvršiti web-pretraživanja ako su mu potrebne dodatne informacije i koristit će najbolje rezultate pretraživanja weba da bi generirao sažetak informacija koje će korisnicima predstaviti. Ti sažeci obuhvaćaju navode na web-stranicama da bi korisnici lakše vidjeli izvore rezultata pretraživanja koji su pomogli sažetku tvrtke Copilot. Korisnici mogu kliknuti te veze da bi odmah došli do izvora ako žele saznati više.

  • Čavrljajte s AI sustavom pomoću teksta.    Korisnici mogu čavrljati s tvrtkom Copilot putem SMS-a i postaviti pitanja za daljnji rad da bi pronašli nove informacije i primili podršku za razne teme.

  • Sučelje s AI-jem pomoću glasa.    Copilot ne samo da može primati audio ulaz, ali i proizvesti audio izlaz u jednom od četiri glasa odabranih od strane korisnika. Mogućnosti audiozapisa korisnicima omogućuju interakciju s kopilotom na prirodniji i tečniji način.

  • Primajte sadržaj sažetih vijesti.    Korisnici mogu koristiti Copilot za primanje sažetka vijesti, vremenske prognoze i drugih ažuriranja na temelju odabranih tema područja putem značajke Copilot Daily i slušati te sažetke u obliku podcasta. Ta će značajka povlačiti sadržaj iz ovlaštenih izvora koji imaju ugovore s Microsoftom.

  • Zatražite pomoć za generiranje novih ideja.    Svaki put kada korisnici komuniciraju s okruženjem copilota, vidjet će skup kartica koje mogu kliknuti da bi započeli čavrljanje s kopilotom o korisnim i zanimljivim temama. Ako su korisnici stupali u interakciju s drugim Microsoftovim korisničkim servisima, kartice će biti personalizirane u skladu s našim pravilima o zaštiti privatnosti. Kartice u tvrtki Copilot s vremenom mogu biti personalizirane na temelju korisnikove povijesti čavrljanja. Korisnici mogu u bilo kojem trenutku odustati od personalizacije u postavkama, a mi i dalje istražujemo mogućnosti personalizacije za korisnike u EGP-u (Europskom gospodarskom prostoru) i Velikoj Britaniji.

  • Generirajte kreativni sadržaj.    Kada čavrljaju s kopilotom, korisnici mogu stvarati nove pjesme, viceve, priče, slike i druge sadržaje uz pomoć iskustva tvrtke Copilot. Copilot može i uređivati slike koje su korisnici prenijeli ako se to zatraži.

  • Obavljanje zadataka u sustavu Android.Korisnici mogu glasovno stupiti u interakciju s kopilotom putem platforme Android za obavljanje određenih zadataka. Ti zadaci su postavljanje brojača vremena i alarma, upućivanje telefonskih poziva, slanje SMS poruka i naručivanje Ubera. Korisnici moraju potvrditi telefonski poziv, SMS poruku i redoslijed Ubera prije dovršetka zadataka.

  • Pomoć pri istraživanju.  Copilot može obavljati istraživačke zadatke dubinskim pregledom resursa, detaljnim analizama tema i povezivanjem s izvorima koji korisnicima olakšavaju traženje složenijih upita.

  • Istražite svijet pomoću Vizualni pomoćnik za Copilot. Copilot može pregledavati vaš zaslon ili mobilni sažetak sadržaja kamere i koristiti svoj glas za odgovaranje na pitanja i interakciju s vama. Copilot može odmah skenirati, analizirati i nuditi uvide i prijedloge u stvarnom vremenu kako bi vam pomagao tijekom rada, pregledavanja ili pregledavanja svijeta. Vizualni pomoćnik za Copilot je dostupna u sustavima Edge, Windows, iOS i Android.

Napomene prilikom odabira drugih slučajeva korištenja

Preporučujemo korisnicima da pregledaju sav sadržaj prije donošenja odluka ili reagiranja na temelju odgovora tvrtke Copilot jer AI može pogriješiti. Uz to, postoje određeni scenariji koje preporučujemo da izbjegavate ili se protive našim Uvjetima korištenja. Microsoft, primjerice, ne dopušta korištenje kopilota u vezi s nezakonitim aktivnostima ili u bilo koju svrhu čija je namjena promicanje nezakonite aktivnosti.  

Ograničenja

Modeli jezika, slika i audiozapisa koji u podočju iskustva copilota mogu obuhvaćati podatke o obuci koji mogu odražavati društvene predrasude, što pak može uzrokovati da se Copilot ponaša na načine koji se smatraju nepoštenima, nepouzdanima ili uvredljivima. Unatoč našem intenzivnom modelu obuke i preciznog prilagođavanja sigurnosti, kao i provedbi odgovornih kontrola za AI i sigurnosnih sustava koje postavimo na podatke o obuci, upite korisnika i izlazne modele, servisi utemeljeni na AI-u su fallible i probabilistic. To otežava sveobuhvatno blokiranje svih neprikladnih sadržaja, što dovodi do rizika da bi potencijalne predrasude, stereotipi, neutemeljenost ili druge vrste štete koje se mogu pojaviti u sadržaju koji generira AI. Neki od načina na koje se ta ograničenja mogu manifestirati u sučelju copilota navedeni su ovdje. 

  • Stereotyping: Iskustvo kopilota može pojačati stereotipe. Na primjer, kada prevodite "On je medicinska sestra" i "Ona je liječnik" na rodno-nerodaktivan jezik kao što je turski, a zatim natrag na engleski, Copilot može nehotice dati stereotypical (i netočan) rezultate "Ona je medicinska sestra" i "On je liječnik". Drugi je primjer generiranje slike na temelju upita "Djeca bez oca", sustav može generirati slike djece iz samo jedne rase ili etničke pripadnosti, pojačavajući štetne stereotipe koji bi mogli postojati na javno dostupnim slikama koje se koriste za obučavanje temeljnih modela. Copilot također može pojačati stereotipe na temelju sadržaja u korisnikove ulazne slike tako što se temelji na komponentama slike i pretpostavkama koje možda nisu istinite. Implementirali smo ublažavanja kako bismo smanjili rizik od sadržaja koji sadrži uvredljive stereotipe, uključujući klasifikatore ulaza i izlaza, precizno ugađane modele i poruke sustava.

  • Overrepresentation and underrepresentation: Copilot could potentially over-or under-represent groups of people, or even not represent them at all, in its responses. Ako se, primjerice, tekstni upit koji sadrži riječ "gay" otkrije kao potencijalno štetan ili uvredljiv, to može dovesti do nedovoljnog predstavljanja legitimnih generacija o zajednici LGBTQIA+. Uz uključivanje klasifikacija ulaznih i izlaznih rezultata, precizno ugađanih modela, kao i poruka sustava, koristimo obogaćivanje upita u programu Designer kao jedno od nekoliko ublažavanja da bismo smanjili rizik od sadržaja koji preko ili ispod predstavlja grupe ljudi.

  • Neprikladan ili uvredljiv sadržaj: Iskustvo tvrtke Copilot može proizvesti druge vrste neprikladnog ili uvredljivog sadržaja. Primjeri uključuju mogućnost generiranja sadržaja u jednom modalitetu (npr. audiozapisu) koji nije prikladan u kontekstu upita ili uspoređen s istim izlazom u drugom modalitetu (npr. tekst). Ostali primjeri obuhvaćaju slike koje generira AI koje potencijalno sadrže štetne artefakte kao što su simboli mržnje, sadržaj koji se odnosi na sporne, sporne ili ideološki polarizirajuće teme te seksualno naplaćeni sadržaj koji izbjegava filtre sadržaja povezanog sa seksualnom inteligencijom. Stavili smo ublažavanja rizika za generiranje koji sadrže neprikladan ili uvredljiv sadržaj, kao što su klasifikatori ulaza i izlaza, precizno ugađani modeli i poruke sustava.

  • Pouzdanost informacija: Iako Copilot ima za cilj odgovoriti s pouzdanim izvorima kada je to potrebno, AI može napraviti pogreške. To bi moglo generirati nesusmjesan sadržaj ili fabricate sadržaj koji bi mogao zvučati razumno, ali je činjenica netočna. Čak i kada crtate odgovore iz web-podataka visokih ovlasti, odgovori bi mogli pogrešno prikazati taj sadržaj na način koji možda nije potpuno točan ili pouzdan. Korisnike podsjećamo putem korisničkog sučelja i u dokumentaciji kao što je ova da Copilot može pogriješiti. Korisnike i dalje educirati o ograničenjima AI-ja, kao što je poticanje na dvostruku provjeru činjenica prije donošenja odluka ili djelovanja na temelju odgovora tvrtke Copilot. Kada korisnici komuniciraju s kopilotom putem teksta, pokušat će se uzemiti u visokokvalitetne web-podatke da bi se smanjio rizik da se generacije ne umanjuju.

  • Višejezične performanse: performanse na svim jezicima mogu biti varijacije, a engleski najbolje funkcionira u trenutku objavljivanja ažuriranog copilota. Poboljšanje performansi na svim jezicima ključno je područje ulaganja, a nedavni modeli doveli su do poboljšanja performansi.

  • Ograničenja zvuka: modeli zvuka mogu uvoditi druga ograničenja. Općenito govoreći, akustična kvaliteta ulaza govora, nemoćna buka, vokabular, akcenti i pogreške u umetanja mogu utjecati i na to obrađuje li Copilot i odgovara li na korisnikov audio ulaz na zadovoljavajući način. Osim toga, budući da korisnik prilikom korištenja servisa Copilot Voice neće pokrenuti web-pretraživanja, Copilot možda neće moći odgovoriti na trenutne događaje u glasovnom načinu rada.

  • Zavisnost o internetskoj povezivosti: ažurirano iskustvo kopilota oslanja se na internetsku povezivost s funkcijom. Prekidi u povezivosti mogu utjecati na dostupnost i performanse servisa.

Performanse sustava

U mnogim sustavima AI performanse se često definiraju u odnosu na točnost (npr. koliko često sustav AI nudi točno predviđanje ili izlaz). Uz Copilot fokusirani smo na Copilota kao pomoćnika koji podržava AI koji odražava korisnikove preference. Zbog toga dva različita korisnika mogu gledati isti rezultat i imati različita mišljenja o tome koliko je koristan ili relevantan za njihovu jedinstvenu situaciju i očekivanja, što znači da se performanse za te sustave moraju fleksibilnije definirati. Općenito imajte na umu da performanse znače da aplikacija funkcionira kako korisnici očekuju.

Najbolje prakse za poboljšanje performansi sustava 

Interakcija sa sučeljem pomoću prirodnog, razgovornog jezika.    Interakcija s kopilotom na način koji je udoban za korisnika ključan je za postizanje boljih rezultata putem iskustva. Slično usvajanju tehnika koje pomažu ljudima u učinkovitoj komunikaciji u svakodnevnom životu, interakcija s kopilotom kao pomoćnikom koji pokreće AI putem teksta ili govora koji je poznat korisniku može pomoći u izazivanju boljih rezultata.

Korisničko iskustvo i uvođenje.    Učinkovita upotreba copilota zahtijeva da korisnici razumiju njegove mogućnosti i ograničenja. Možda postoji krivulja učenja, a korisnici bi mogli referenciravati različite resurse za Copilot (npr. ovaj dokument i najčešća pitanja o kopilotu) da bi učinkovito stupali u interakciju sa servisom i da bi imali koristi od te usluge.

Mapiranje, mjerenje i upravljanje rizicima

Kao i druge tehnologije transformacije, iskorištavanje prednosti AI-ja nije bez rizika, a temeljni dio Microsoftova programa Odgovorna AI osmišljena je za prepoznavanje i mapiranje potencijalnih rizika, mjerenje tih rizika i upravljanje njima izgradnjom ublažavanja i neprekidnim poboljšavanjem sustava Copilot tijekom vremena. U odjeljcima u nastavku opisujemo naš ieracijativni pristup kartama, mjerama i upravljanju potencijalnim rizicima.

Karta: pažljivo planiranje i testiranje prije implementacije, kao što je red teaming, pomaže nam mapirati potencijalne rizike. Temeljni modeli koji napajaju iskustvo kopilota prošli su kroz testiranje crvenog tima od testera koji predstavljaju multidisciplinarne perspektive u relevantnim područjima tema. Ovo je testiranje osmišljeno za procjenu kako će najnovija tehnologija funkcionirati i s i bez dodatnih zaštitnih mjera primijenjenih na njega. Namjera ovih vježbi na razini modela jest proizvesti štetne odgovore, potencijalne načine zloupotrebe uređaja surface te utvrditi mogućnosti i ograničenja.

Prije nego što smo copilotsko iskustvo učinili javno dostupnim u ograničenom pretpregledu izdanja, proveli smo i red timing na razini aplikacije radi procjene nedostataka i slabih točaka copilota. Ovaj proces nam je pomogao bolje razumjeti kako sustav može koristiti širok raspon korisnika i pomogao nam poboljšati naše ublažavanja.

Mjera: osim procjene kopilota u odnosu na naše postojeće sigurnosne procjene, prethodno opisana upotreba crvenog timova pomogla nam je da razvijamo procjene i odgovorne metrike AI-ja koje odgovaraju identificiranim potencijalnim rizicima, kao što su bjekstvo iz zatvora, štetan sadržaj i neusmjenjivi sadržaj.

Prikupili smo razgovorne podatke koji ciljaju te rizike pomoću kombinacije ljudskih sudionika i automatiziranog kanala generiranja razgovora. Svaku procjenu zatim postiћe grupa uvježbanih ljudskih primjedbi ili automatizirani kanal za opaske. Svaki put kada se proizvod promijeni, ažuriraju se postojeća ublažavanja ili se predlažu nova ublažavanja, ažuriramo naše kanale za procjenu kako bismo procijenili performanse proizvoda i odgovornu metriku AI-ja. Ti automatizirani kanali za procjenu konteksta kombinacija su prikupljenih razgovora s ocjenjivačima ljudi i sintetičkim razgovorima generiranima pomoću LLM-ova koji se od vas traži da testirajte pravilnike na način koji se protivi. Svaka od tih procjena sigurnosti automatski se postiћe s LLM-om. Za novorazvijene procjene svaku procjenu prvotno postižu osobe koje čitaju tekstni sadržaj ili preslušavanje audioizlaza, a zatim se pretvaraju u automatske evaluacije utemeljene na LLM-u.

Predviđeno ponašanje naših modela u kombinaciji s našim kanalima za procjenu – i ljudskim i automatiziranim – omogućuje nam brzo mjerenje potencijalnih rizika na razini. Kako s vremenom utvrdimo nove probleme, nastavljamo proširivanje skupova mjera radi procjene dodatnih rizika. 

Upravljanje: kako smo utvrdili potencijalne rizike i zloupotrebu crvenim timom i mjerili ih gore opisanim pristupima, razvili smo dodatna ublažavanja specifična za iskustvo copilota. U nastavku opisujemo neka od tih ublažavanja. Nastavit ćemo pratiti iskustvo kopilota radi poboljšanja performansi proizvoda i našeg pristupa ublažavanju rizika. 

  • Planovi postupnog izdanja i kontinuirana procjena.    Predani smo neprekidnom učenju i poboljšanju našeg pristupa odgovornom AI-ju dok se naše tehnologije i ponašanje korisnika razvijaju. Naša strategija inkrementalnog izdanja je temeljni dio načina na koji sigurno premještamo našu tehnologiju iz laboratorija u svijet, i predani smo namjernom, promišljenom procesu kako bismo osigurali prednosti copilot iskustva. Redovito mijenjamo Copilot radi poboljšanja performansi proizvoda i postojećih ublažavanja te implementiramo nova ublažavanja kao odgovor na naša učenja.

  • Korištenje klasifikatori i poruka sustava kako bi se ublažili potencijalni rizici ili zloupotreba.    Kao odgovor na korisničke upite, LLMs može proizvesti problematični sadržaj. Razmotrili smo vrste sadržaja koje smo pokušali ograničiti u prethodno navedenim odjeljcima Ponašanje i ograničenja sustava. Classifiers i poruka sustava dva su primjera ublažavanja koja su implementirana u Copilot kako bi se smanjio rizik od tih vrsta sadržaja. Klasifikatori klasificiraju tekst da bi označili potencijalno štetan sadržaj u upitima korisnika ili generiranim odgovorima. Koristimo i postojeće najbolje prakse za iskorištavanje poruke sustava, što uključuje davanje uputa modelu radi usklađivanja ponašanja s Microsoftovim načelima AI-ja i očekivanjima korisnika.

  • Pristanak na prijenose slika za Copilot.    Kada korisnik prvi put prenese sliku koja sadrži lica u Copilot, od korisnika će se zatražiti da pristane na prijenos biometrijskih podataka u Copilot. Ako se korisnik ne omogući, slika se neće poslati tvrtki Copilot. Sve slike, bez obzira na to sadrže li lica ili ne, brišu se u roku od 30 dana nakon što razgovor završi.

  • Otkrivanje umjetne inteligencije.    Copilot je također osmišljen kako bi obavijestio ljude da komuniciraju sa sustavom AI. Kako se korisnici angažiraju u suradnji s tvrtkom Copilot, nudimo razne dodirne točke osmišljene da bi bolje razumjeli mogućnosti sustava, otkrivali im da copilot omogućuje AI i da komunicira ograničenja. Iskustvo je osmišljeno na taj način da bi korisnicima pomoglo da u što većoj potrošnji copilota i minimiziraju rizik od overreliance. Objave korisnicima pomažu i da bolje razumiju Copilot i njihove interakcije s njima.

  • Medijsko dokazanje.    Kada Copilot generira sliku, omogućili smo značajku "Vjerodajnice za sadržaj" koja koristi kriptografske metode za označavanje izvora ili "dokaza" svih slika generiranih pomoću AI-ja stvorenih pomoću sustava Copilot. Ova tehnologija koristi standarde koje je postavili Koalicija za sadržaj i autentičnost (C2PA) kako bi dodala dodatni sloj povjerenja i transparentnosti za slike koje generira AI.

  • Automatsko otkrivanje sadržaja.    Kada korisnici prenose slike kao dio upita za čavrljanje, Copilot implementira alate za otkrivanje slike seksualnog iskorištavanja i zloupotrebe djece (CSEAI). Microsoft prijavljuje sve očite CSEAI-je u Nacionalni centar za nestalu i zlostavljanju djecu (NCMEC) prema zakonu SAD-a. Kada korisnici prenose datoteke radi analize ili obrade, Copilot implementira automatizirani pregled radi otkrivanja sadržaja koji može dovesti do rizika ili zloupotrebe, kao što je tekst koji se može odnositi na nezakonite aktivnosti ili zlonamjerni kod.

  • Uvjeti korištenja i kodeks ponašanja.    Korisnici bi se trebali pridržavati primjenjivih Uvjeta korištenja i kodeksa ponašanja tvrtke Copilot Microsoftova ugovora o pružanju usluga i Microsoftove izjave o zaštiti privatnosti, koja ih, između ostalih, obavještava o dopuštenim i nedopusti dostupnim načinima korištenja i posljedicama kršinja uvjeta. Uvjeti korištenja korisnicima nude i dodatna otkrivanja te služe kao referenca korisnicima da bi saznali više o tvrtki Copilot. Korisnici koji počine ozbiljna ili ponovljena kršenja mogu privremeno ili trajno obustaviti servis.

  • Povratne informacije, nadzor i nadzor.    Iskustvo za Copilot nadohvali su na postojeće alate koji korisnicima omogućuju slanje povratnih informacija koje pregledaju Microsoftovi operativni timovi. Osim toga, naš pristup mapiranju, mjerenju i upravljanju rizicima nastavit će se razvijati dok iramo više, a već poboljšavamo na temelju povratnih informacija prikupljenih tijekom razdoblja pretpregleda.

Saznajte više o odgovornoj AI

Microsoft Responsible AI Transparency Report

Microsoftova načela AI-ja

Microsoftovi odgovorni resursi za AI

Tečajevi za Microsoft Azure Learning o odgovornoj AI

Saznajte više o Microsoft Copilot

Microsoft Copilot najčešća pitanja

O ovom dokumentu

© 2024 Microsoft Corporation. Sva prava pridržana. Ovaj se dokument nalazi u "trenutnom obliku" i samo u informativne svrhe. Informacije i prikazi izraženi u ovom dokumentu, uključujući URL i druge reference na internetsko web-mjesto, mogu se promijeniti bez prethodne obavijesti. Vi snosite rizik korištenja. Neki su primjeri samo za ilustraciju i fiktivni. Nije predviđeno stvarno pridruživanje niti se može zaključiti.

Ovaj dokument nije namijenjen i ne treba se tumačiti kao pružanje, pravni savjet. Nadležnost u kojoj koristite može imati različite regulatorne ili pravne zahtjeve koji se odnose na vaš sustav AI. Ako niste sigurni u zakone ili propise koji se mogu primijeniti na vaš sustav, obratite se pravnom stručnjaku, osobito ako mislite da bi to moglo utjecati na te preporuke. Imajte na umu da sve te preporuke i resursi neće biti prikladni za svaki scenarij, a nasuprot tome, te preporuke i resursi možda neće biti dovoljni za neke scenarije.

Objavljeno: 01.10.2024.

Zadnje ažuriranje: 01. 10. 2024.

Potrebna vam je dodatna pomoć?

Želite dodatne mogućnosti?

Istražite pogodnosti pretplate, pregledajte tečajeve za obuku, saznajte kako zaštititi uređaj i još mnogo toga.