Poslednji put ažurirano: septembar 2025.
Šta je to beleška o prozirnosti?
AI sistem ne uključuje samo tehnologiju, već i osobe koje će je koristiti, osobe na koje će uticati i okruženje u kojem je primenjena. Namena Microsoft beležaka o prozirnosti je da vam pomognu da razumete kako radi AI tehnologija iza Kopilot, izbori koje smo napravili koji utiču na performanse i ponašanje sistema, kao i na važnost razmišljanja o celom sistemu, kako bi korisnici Kopilot-a mogli da preuzmu kontrolu nad sopstvenim iskustvima i razumeju korake koje preduzimamo da bismo obezbedili bezbedan i bezbedan proizvod.
Microsoft beleške o prozirnosti su deo šireg napora korporacije Microsoft da svoje principe vežbi iskoristi za vežbu. Da biste saznali više, pogledajte Članak Microsoft AI principi.
Osnove Microsoft Copilot
Uvod
Kopilot je iskustvo koje koristi tehnologiju veštake koja će korisnicima pružiti informacije koje traže i koja je spremna da podrži korisnike u odgovoru na širok opseg pitanja bez obzira na situaciju ili temu. Osveženi Kopilot više ne odgovara na upite za preuzimanje osnovnih informacija i fokusira se na generisanje sadržaja kako bi korisnicima ponudio proaktivnu podršku prilikom dovršavanja zadataka. Razumemo kako AI ima potencijal da pomogne ljudima da uče, otkriju i budu kreativniji, što je zahtevalo da napravimo drugačiji tip proizvoda. Novo Iskustvo kopilot-a nastoji da postane novi tip iskustva koje je otvoreno i dinamički radi boljeg adresiranja potreba korisnika na način koji je intuitivniji.
U korporaciji Microsoft ozbiljno shvatimo našu posvećenost odgovornom veštinom. Ažurirano iskustvo kopilot-a razvije se uravnoteženo sa Microsoft AI principima, Odgovornom AI Standard korporacije Microsoft i u partnerstvu sa odgovornim veštacima iz čitave kompanije, uključujući Microsoft-ovu kancelariju odgovornog AI-ja, naše inženjerske timove, Microsoft Research i Ether. Ovde možete da saznate više o odgovornom veštačenju korporacije Microsoft.
U ovom dokumentu opisujemo naљ pristup odgovornom veљtaиki veљtaиki za Kopilot. Pre objavljivanja, iskoristili smo najsavršenije metode korporacije Microsoft za mapiranje, merenje i upravljanje potencijalnim rizicima i pogrešnom upotrebom sistema i obezbeđivanje njegovih pogodnosti za korisnike. Nastavili smo da razvijamo Kopilot, nastavili smo da učimo i poboljšavamo odgovorne napore veštake. Ovaj dokument će se periodično ažurirati kako bi se obaveštavali o procesima i metodama razvoja.
Ključni termini
Klasifikatori Modeli mašinskog učenja koji pomažu da sortirate podatke u označene razrede ili kategorije informacija. U ažuriranom iskustvu kopilot-a, jedan od načina na koji koristimo klasifikatore jeste da pomognemo u otkrivanju potencijalno štetnog sadržaja koji su korisnici prosledili ili koji je generisan od strane sistema radi umanjivanja generisanje tog sadržaja i zloupotrebe ili zloupotrebe sistema.
Osnovano Za određene razgovore u kojima korisnici traže informacije, Copilot se nalazi u rezultatima veb pretrage. To znači da Copilot centrira svoj odgovor na sadržaj visokog rangiranja sa veba i pruža citate sa hipervezama posle generisanih tekstualnih odgovora. Imajte na umu da u ovom trenutku korisnički odzivi u režimu glasa neće aktivirati veb pretragu, stoga nijedan odgovor neće uključivati citate.
Veliki jezički modeli (LLM-ove) Veliki jezički modeli (LLM-ove) u ovom kontekstu su AI modeli koji su obučeni za velike količine tekstualnih podataka za predviđanje reči u nizovima. LLM-ove mogu da izvršavaju razne zadatke, kao što su generisanje teksta, rezimiranje, prevod, klasifikacija i još mnogo toga.
Umanjivanje Metod ili kombinacija metoda dizajniranih za smanjivanje potencijalnih rizika do kojih može doći pomoću AI funkcija u okviru funkcije Copilot.
Višemodalni modeli (MMM-i) Višemodalni modeli (MMM-i) su AI modeli koji su obučeni za različite tipove podataka, kao što su tekst, slike ili zvuk. Ovi modeli mogu da izvršavaju razne zadatke, kao što su pisanje teksta, opis slika, prepoznavanje govora i pronalaženje informacija u različitim tipovima podataka.
Odzivi Unosi u obliku teksta, slika i/ili zvuka koje korisnik šalje kopilotu u interakciju sa AI funkcijama u okviru copilot-a.
Crveni tim Tehnike koje koriste stručnjaci za procenu ograničenja i ranjivosti sistema i za testiranje efikasnosti planiranih umanjivanja. Testiranje crvenog tima uključuje testere koji usvajaju i benigne i suprotne persone kako bi identifikovali potencijalne rizike i razlikuju se od sistematskog merenja rizika.
Odgovore Tekst, slike ili zvuk koji Copilot daje kao odgovor na odziv ili kao deo sa korisnikom. Sinonimi za "odgovor" uključuju "dovršavanje", "generisanje" i "odgovor".
Modeli malih jezika (SLM-e) Modeli malih jezika (SLM-ove) u ovom kontekstu su AI modeli koji su obučeni za manje i fokusiranije količine podataka u poređenju sa velikim jezičkim modelima. Uprkos manjoj veličini, SLM-ove mogu da izvršavaju razne zadatke, kao što su generisanje teksta, rezimiranje, prevod i klasifikacija. Iako se možda ne podudaraju sa velikim mogućnostima LLM-ova, SLM-ove su često efikasniji od resursa i mogu biti veoma efikasni za određene, ciljane aplikacije.
Sistemska poruka Sistemska poruka (ponekad se naziva "metaprompt") je program koji služi da upravlja ponašanjem sistema. Delovi sistemske poruke pomažu u poravnanju ponašanja sistema sa Microsoft AI principima i očekivanjima korisnika. Na primer, sistemska poruka može da sadrži liniju kao što je "ne pružaj informacije ili kreiraj sadržaj koji može dovesti do fizičke, emotivne ili finansijske štete".
Mogućnosti
Ponašanje sistema
Sa Copilot-om smo razvili inovativni pristup da korisnicima pružimo personalizovanije iskustvo pri radu koje korisnicima može da pomogne oko različitih zadataka. Ovaj inovativni pristup koristi različite napredne tehnologije, kao što su jezički i višemodalni modeli korporacije Microsoft, OpenAI i drugih projektanta modela. Radili smo na primeni tehnika bezbednosti za modele koji su zasnovani na novom Iskustvu Kopilot-a pre javnog izdavanja kako bismo razvili prilagođeni skup mogućnosti i ponašanja koji pružaju poboljšano iskustvo u kopilotu. U ažuriranom Copilot-u korisnici mogu slati odzive tekstom ili glasom na prirodnom jeziku. Odgovori se prikazuju korisnicima u nekoliko različitih formata, kao što su odgovori ćaskanja u tekstualnom obliku (sa tradicionalnim vezama ka veb sadržaju po potrebi) i slikama (ako je zahtev za sliku napravljen u sklopu odziva). Ako korisnici šalju odzive prirodnim jezikom unutar režima Copilot glasa, dobiće audio odgovore.
Kada korisnik unese upit u kopilotu, odziv, istorija razgovora i sistemska poruka se šalju kroz nekoliko klase unosa radi filtriranja štetnog ili neprikladnog sadržaja. Ovo je ključni prvi korak za pomoć u poboljšanju performansi modela i umanjivanje situacija u kojima korisnici mogu pokušati da odzive model na način koji bi mogao da bude nebezbedan. Kada odziv prođe kroz klasifikatore unosa, on se šalje SLM-u da bi se utvrdilo da li zahtev zahteva prizemne podatke sa veba i koji jezički model treba da odgovori na zahtev. Svi modeli generišu odgovor pomoću odziva korisnika i nedavne istorije razgovora da bi se kontekstualizovao zahtev, sistemska poruka za usklađivanje odgovora sa Microsoft AI principima i očekivanjima korisnika, a ako je to prikladno, poravnaj odgovore sa rezultatima pretrage sa osnovnim odgovorima u postojećem sadržaju visokog rangiranja sa veba.
Odgovori se prikazuju korisnicima u nekoliko različitih formata, kao što su odgovori ćaskanja u tekstualnom obliku, tradicionalne veze ka veb sadržaju, slikama i audio odgovorima. Kada se odgovori obezbede u obliku teksta – a odgovori se zasniva na podacima sa veba – izlaz sadrži hipervezne citate navedene ispod teksta, tako da korisnici mogu da pristupe veb lokacijama koje su korišćene za prizemljivanje odgovora i saznaju više o temi odatle. Kopilot takođe može da pokrene kôd za dovršavanje složenih izračunavanja i generisanje grafika. Copilot može da uskladišti određene činjenice koje korisnici zahtevaju da ih zapamti, što mu omogućava da generiše relevantnije odgovore i predloge na osnovu tog konteksta. Kopilot takođe može da izbriše sačuvane činjenice kada korisnici od njih traže da ih izričito zaborave.
Kopilot takođe pomaže korisnicima da kreiraju nove priče, pesme, tekstove pesama i slike. Kada Copilot otkrije korisničku nameri da generiše kreativni sadržaj (kao što je odziv korisnika koji počinje sa "napiši mi..."), sistem će, u većini slučajeva, reaktivno generisati sadržaj na odziv korisnika. Slično tome, kada Copilot otkrije korisničku nameri da generiše sliku (kao što je odziv korisnika koji počinje sa "nacrtaj mi ..."), Copilot će, u većini slučajeva, generisati sliku koja se odaziva na odziv korisnika. Kada Copilot otkrije korisničku nameri da izmeni otpremljenu sliku (kao što je odziv korisnika koji počinje sa "dodaj ..."), Copilot će, u većini slučajeva, izmeniti sliku koja se odaziva na odziv korisnika. Copilot možda neće odgovoriti kreativnim sadržajem kada korisnički odziv sadrži određene termine koji mogu dovesti do problematičnog sadržaja.
Korisnici koji imaju Microsoft naloge (MSA) sada imaju i opciju da se pretplate na Copilot Pro koji nudi poboljšano iskustvo, uključujući ubrzane performanse, korišćenje copilot glasovnih mogućnosti tokom dužeg vremenskog perioda, a u nekim slučajevima i pristup novim, eksperimentalnim funkcijama. Copilot Pro je trenutno dostupna u ograničenom broju zemalja i planiramo da Copilot Pro uskoro dostupne na više tržišta.
Nameravano ponašanje bezbednosti
Naš cilj za Copilot je da budemo korisni korisnicima. Korišćenjem najboljih praksi drugih Microsoft generativnih AI proizvoda i usluga, teže nam je da ograničimo Copilot od generisanja problematičnog sadržaja i povećamo verovatnoće bezbednog i pozitivnog korisničkog iskustva. Iako smo preduzeli korake za umanjivanje rizika, generativni AI modeli kao što su oni iza Copilot-a su verovatno i mogu praviti greške, što znači da umanjivanja povremeno mogu da ne uspeju da blokiraju štetne odzive korisnika ili odgovore generisane putem veša. Ako naiđete na štetan ili neočekivani sadržaj dok koristite Copilot, obavestite nas tako što ćete nam pružiti povratne informacije kako bismo nastavili da poboljšavamo iskustvo.
Korišćenje slučajeva
Nameravane upotrebe
Copilot je namenjen podršci korisnicima u odgovaranju na širok opseg pitanja bez obzira na situaciju ili temu. Korisnici mogu da vrše interakciju sa Kopilot korišćenjem teksta, slike i audio unosa gde su interakcije namenjene da se više osećaju kao prirodni razgovori sa veštim sistemom. Pored toga, ako korisnici komuniciraju sa Copilot preko teksta da bi potražili određene informacije o temama u kojima Copilot može zahtevati više informacija kako bi dao tačniji odgovor, cilj ovog iskustva je da se korisnici povežu sa relevantnim rezultatima pretrage, pregledaju rezultate sa veba i rezime informacija koje korisnici traže. U Kopilotu korisnici mogu da:
-
Rezimirajte informacije u realnom vremenu prilikom ćaskanja putem teksta. Kada korisnici vrše interakciju sa kopilotom putem teksta, sistem izvršava veb pretrage ako mu je potrebno više informacija i koristiće najbolje rezultate veb pretrage za generisanje rezimea informacija koje korisnicima treba predstaviti. Ti rezimei uključuju citate ka veb stranicama kako bi pomogli korisnicima da vide izvore i lako pristupe izvorima za rezultate pretrage koji su pomogli da se odredi rezime Copilot-a. Korisnici mogu da kliknu na ove veze da bi otišli direktno na izvor ako žele da saznaju više.
-
Ćaskajte sa AI sistemom koristeći tekst. Korisnici mogu da ćaskaju sa kopilotom putem teksta i postavljaju dodatna pitanja kako bi pronašli nove informacije i dobili podršku u različitim temama.
-
Interfejs sa AI korišćenjem glasa i izgleda. Kopilot ne samo da može da prima audio unos, već i da proizvodi izlaz zvuka na jednom od četiri izabrana glasa od strane korisnika i da predstavi vizuelni izgled radi obogaćivanje interakcije. Mogućnosti audio-audio i izgleda omogućavaju korisnicima da komuniciraju sa Copilot-om na prirodniji i tečniji način.
-
Primite sadržaj vesti sa dostojanstvenim sadržajem. Korisnici mogu da koriste Copilot za primanje rezimea vesti, vremenske prognoze i drugih ispravki na osnovu izabranih oblasti teme putem funkcije Copilot dnevni pregled i slušanje tih brifinga u formatu podkasta. Ova funkcija povlači sadržaj iz ovlašćenih izvora koji imaju ugovore sa korporacijom Microsoft.
-
Pronađite pomoć za generisanje novih ideja. Svaki put kada korisnici komuniciraju sa iskustvom kopilot-a, videće skup kartica na koje mogu da kliknu da bi počeli ćaskanje sa Copilot-om o korisnim i zanimljivim temama. Ako su korisnici vršili interakciju sa drugim Microsoft korisničkim uslugama, kartice će biti personalizovane u odnosu na naše smernice za privatnost. S vremenom, kartice u kopilotu mogu da se personalizuju na osnovu istorije ćaskanja korisnika. Korisnici u bilo kom trenutku mogu da odbiju saglasnosti za personalizaciju u postavkama.
-
Generišite kreativni sadržaj. Kada ćaskaju sa Kopilot-om, korisnici mogu da kreiraju nove pesme, šale, priče, slike i drugi sadržaj uz pomoć iskustva kopilot. Kopilot takođe može da uređuje slike koje su otpremili korisnici ako se to zatraži.
-
Izvršavanje zadataka u operativnom sistemu Android.Korisnici mogu da vrše interakciju sa Copilot putem Android platforme putem glasa kako bi izvršili određene zadatke. Ovi zadaci su postavljanje tajmera i alarma, upućivanje telefonskih poziva, slanje SMS poruka i poručivanje Ubera. Korisnici moraju da potvrde telefonski poziv, SMS poruku i Uber redosled pre dovršavanja zadataka.
-
Pomognite oko istraživanja. Kopilot može da sprovede istraživačke zadatke tako što će detaljno pregledati resurse, nuditi detaljne analizu tema i povezati se sa izvorima kako bi korisnicima pomogli da prevaziđite brze odgovore za složenije upite. Kopilot može proaktivno da generiše personalizovane predloge za istraživanja za korisnike na osnovu stvari kao što su prošli istraživački upiti i memorija u Kopilotu. Korisnici u bilo kom trenutku mogu da odbiju saglasnosti za personalizaciju ili obaveštenja u postavkama.
-
Istražite svet Copilot vid. Copilot može da prikaže vaš ekran ili feed mobilne kamere i da koristi svoj glas za odgovaranje na pitanja i interakciju sa vama. Copilot može trenutno da skenira, analizira i nudi uvide i predloge u realnom vremenu kako bi vam pomagao dok radite, pregledate ili istražujete svet. Copilot vid je na edge, Windows, iOS i Android uređajima.
Stvari koje treba uzeti u obzir prilikom izbora drugih slučajeva korišćenja
Podstičemo korisnike da pregledaju sav sadržaj pre nego što donesu odluke ili deluju na osnovu Copilot odgovora kao AI mogu da naprave greške. Pored toga, postoje određeni scenariji koje preporučujemo da izbegavate ili da se protive našim Uslovima korišćenja. Na primer, Microsoft ne dozvoljava da se Copilot koristi u vezi sa nezakonitim aktivnostima ili u bilo koju svrhu za promovisanje ilegalne aktivnosti.
Ograničenja
Jezik, slika i audio modeli koji su osnovni utisku pri radu sa kopilotom mogu da uključuju podatke obuke koji mogu da odražavaju socijalne predstražnosti, što može da dovede do toga da se Copilot ponaša na načine koji su doživljeni kao nepošteni, nepoželjni ili uvredljivi. Uprkos intenzivnoj obuci i preciznom podešavanju modela, kao i primeni odgovornih AI kontrola i bezbednosnih sistema koje postavljamo na podatke o obuci, odzive korisnika i izlaze modela, usluge zasnovane na veštačkim intelinzitetu su neiskrene i verovatno. To čini sveobuhvatno blokiranje svih neprikladnih sadržaja, što može dovesti do rizika da potencijalna predrasuda, stereotipovi, neospoređivanje ili drugi tipovi štete koji se mogu pojaviti u sadržaju koji generiše veštački generisani veštački optimalac. Ovde su navedeni neki od načina na koje se ta ograničenja mogu ispoljavati u iskustvu kopilot-a.
-
Stereotip: Iskustvo kopilot-a moglo bi potencijalno da pojača stereotipe. Na primer, kada prevodite "On je medicinska sestra" i "Ona je doktor" na jezik bez roda kao što je turski, a zatim nazad na engleski, Copilot može nenamerno dati stereotipne (i netačne) rezultate "Ona je medicinska sestra" i "On je doktor". Drugi primer je kada se generiše slika na osnovu odziva "Deca bez oca", sistem bi mogao da generiše slike dece samo iz jedne rase ili etničke pripadnosti, pojačavajući štetne stereotipe koji mogu postojati na javno dostupnim slikama koje se koriste za obučavanje osnovnih modela. Kopilot takođe može da pojača stereotipe na osnovu sadržaja na slici unosa korisnika tako što će se oslanjati na komponente slike i pretpostavke koje možda nisu tačne. Primenili smo ublaživanja kako bismo smanjili rizik od sadržaja koji sadrži uvredljive stereotipe, uključujući ulazne i izlazne klasifikatore, precizne modele i sistemske poruke.
-
Preterano predstavljanje i zanosanje: Kopilot može potencijalno da bude nad-ili ispod predstavljene grupe ljudi, ili ih čak i uopšte ne predstavlja u svojim odgovorima. Na primer, ako su tekstualni odzivi koji sadrže reč "gej" otkriveni kao potencijalno štetni ili uvredljivi, to može dovesti do slabog predstavljanja legitimnih generacija U LGBTQIA+ zajednici. Pored uključivanja ulaznih i izlaznih klasifikatora, preciznih modela, kao i sistemskih poruka, koristimo obogaćivanje odziva u programu Designer kao jedno od nekoliko umanjivanja kako bismo smanjili rizik od rizika od sadržaja koji zasniva grupe ljudi preko ili ispod.
-
Neprikladan ili uvredljiv sadržaj: Iskustvo Kopilot može potencijalno da proizvede druge tipove neprikladnog ili uvredljivog sadržaja. Primeri obuhvataju mogućnost generisanja sadržaja u jednom modalnosti (npr. zvuku) koji nije prikladan u kontekstu odziva ili u poređenju sa istim rezultatom u različitim modalnostima (npr. tekst). Drugi primeri uključuju slike koje generišu veštačke intelijuma koje potencijalno sadrže štetne artefakte kao što su simboli mržnje, sadržaj koji je povezan sa spornim, kontroverznim ili ideološki polarizujućim temama i seksualno naplaćivan sadržaj koji izbegava filtere sadržaja za seksualne odnose. Umanjili smo rizik od generacija koje sadrže neprikladan ili uvredljiv sadržaj, kao što su ulazni i izlazni klasifikatori, precizni modeli i sistemske poruke.
-
Pouzdanost informacija: Iako Copilot cilja da odgovori sa pouzdanim izvorima tamo gde je to neophodno, AI može da pravi greške. Može potencijalno da generiše nesenzijski sadržaj ili da kreira sadržaj koji može zvučati razumno, ali je činjenično netačan. Čak i kada crtate odgovore iz veb podataka visokog autoriteta, odgovori mogu pogrešno da predstave taj sadržaj na način koji možda nije potpuno tačan ili pouzdan. Podsećamo korisnike putem korisničkog interfejsa i u dokumentaciji kao što je ova da Copilot može da napravi greške. Takođe nastavljamo da obrazujemo korisnike o ograničenjima AI, kao što je podstičući ih da još jednom provere činjenice pre donošenja odluka ili postupanja prema Copilotovim odgovorima. Kada korisnici komuniciraju sa Kopilotom putem teksta, on će pokušati da se suzi u veb podacima visokog kvaliteta kako bi smanjio rizik da su generacije neosnovane.
-
Višejezičke performanse: u performansama na svim jezicima mogu da postoje varijacije, pri kojima je engleski najbolje aktivan u vreme objavljivanja ažuriranog Copilot-a. Poboljšanje performansi na jezicima je ključna oblast za ulaganje, a nedavni modeli su doveli do poboljšanih performansi.
-
Audio ograničenja: Audio modeli mogu da uvedu druga ograničenja. Široko govoreći, akustični kvalitet unosa govora, šum koji nije govor, rečnik, akcenti i greške u umetanju takođe mogu da utiču na to da li Copilot obrađuje i odgovara na korisnički audio unos na zadovoljavajući način. Štaviše, pošto korisnički odzivi prilikom korišćenja Copilot glasa neće pokrenuti veb pretrage, Copilot možda neće moći da odgovori na trenutne događaje u glasovnom režimu.
-
Zavisnost od internet veze: Ažurirano iskustvo copilot-a oslanja se na internet vezu da bi funkcionisalo. Prekidi u povezivanju mogu da utiču na dostupnost i performanse usluge.
Performanse sistema
U mnogim AI sistemima performanse se često definišu u odnosu na tačnost (tj. koliko često AI sistem nudi tačno predviđanje ili izlaz). Sa Kopilotom smo fokusirani na Copilot-a kao pomoćnika koji koristi vešti oslikava željene postavke korisnika. Stoga dva različita korisnika mogu da pogledaju isti izlaz i da imaju različita mišljenja o tome koliko je korisno ili relevantno za njihove jedinstvene situacije i očekivanja, što znači da performanse za ove sisteme moraju biti fleksibilnije definisane. Obično razmotrimo performanse da bismo značili da aplikacija radi kao što korisnici očekuju.
Najbolje prakse za poboljšanje performansi sistema
Vršite interakciju sa interfejsom koristeći prirodni jezik razgovora. Interakcija sa Copilot-om na način koji je udoban za korisnika je ključna za dobijanje boljih rezultata kroz iskustvo. Slično tehnikama usvajanja koje pomažu ljudima da efikasno komuniciraju u svakodnevnim životima, interakcija sa Copilot-om kao pomoćnikom na veštim funkcijama putem teksta ili govora koji su upoznati sa korisnikom može pomoći da se pohvale bolji rezultati.
Korisničko iskustvo i usvajanje. Efikasna upotreba Copilot-a zahteva da korisnici razumeju njegove mogućnosti i ograničenja. Možda postoji kriva učenja i korisnici bi možda poželeli da upućuju na razne Copilot resurse (npr. ovaj dokument i naša kopilot najčešća pitanja) kako bi efikasno stupili u interakciju sa uslugom i imali koristi od toga.
Mapiranje, merenje i upravljanje rizicima
Kao i druge transformacione tehnologije, iskoristivanje pogodnosti venecijane nije oslobađeno od rizika, a osnovno deo Microsoft odgovornog AI programa osmišljen je da identifikuje i mapira potencijalne rizike, izmeri te rizike i upravlja njima izgradnjom umanjivanja i kontinuiranim poboljšanjem Copilot-a tokom vremena. U odeljcima ispod opisujemo svoj iterativni pristup mapiranju, meri i upravljanju potencijalnim rizicima.
Mapa: Pažljivo planiranje i testiranje unapred primene, kao što je crveni tim, pomaže nam da mapirate potencijalne rizike. Osnovni modeli koji potiskuju iskustvo Kopilot-a prošli su kroz crveno testiranje tima od testera koji predstavljaju multidisciplinarne perspektive u relevantnim oblastima teme. Testiranje je dizajnirano da proceni kako će najnovija tehnologija funkcionisati i sa i bez ikakve dodatne zaštite koja je primenjena na nju. Namera ovih vežbi na nivou modela je dati štetne odgovore, istaći potencijalne načine za pogrešno korišćenje i identifikovati mogućnosti i ograničenja.
Pre nego što smo utisak pri radu u Kopilotu javno dostupni u ograničenom pregledu izdanja, takođe smo na nivou aplikacije sprovodili crveni tim radi procene copilot-a za nedostatke i ranjivosti. Ovaj proces nam je pomogao da bolje razumemo kako sistem može da koristi veliki broj korisnika i pomogao nam je da poboljšamo umanjivanje.
Mera: Pored procene Copilot-a u odnosu na postojeće bezbednosne procene, upotreba crvenog tima opisanog iznad pomogla nam je da razvijemo procene i odgovornu AI metriku koja odgovara identifikovanim potencijalnim rizicima, kao što su prelomi reda, štetni sadržaj i neosloženi sadržaj.
Prikupili smo podatke o razgovoru koji usmerava ove rizike pomoću kombinacije ljudskih učesnika i automatizovanog kanala za generisanje razgovora. Svaku procenu zatim ocenjuju radnici obučenih ljudskih komentara ili automatizovani kanal beležke. Svaki put kada se proizvod promeni, ažuriraju se postojeća umanjivanja ili se predlažu nova umanjivanja, ažuriramo kanale procene kako bismo procenili performanse proizvoda i odgovornu AI metriku. Ti kanali automatizovanog konteksta procene su kombinacija prikupljenih razgovora sa procenjenim osobama i sintetičkih razgovora generisanih pomoću LLM-ova zatraženih da testiraju smernice na neodgovoran način. Svaka od ovih bezbednosnih procena automatski se dobija pomoću LLM-ova. Za nove razvijene procene, svaku procenu prvobitno ocenjuju osobe koje čitaju tekstualni sadržaj ili preslušuju audio rezultat, a zatim konvertuju u automatske procene zasnovane na LLM-u.
Nameravano ponašanje naših modela u kombinaciji sa naftovodima za procenu – i ljudskim i automatizovanim – omogućava nam da brzo izvršimo merenje potencijalnih rizika na skali. Kako vremenom identifikujemo nove probleme, nastavljamo da širimo skupove mera kako bismo procenili dodatne rizike.
Upravljanje: Dok smo identifikovali potencijalne rizike i greške u radu crvenog tima i merili ih pristupima opisanim iznad, razvili smo dodatna umanjivanja koja su specifična za Copilot iskustvo. U nastavku opisujemo neke od tih umanjivanja. Nastavićemo da pratimo iskustvo u kopilotu da bismo poboljšali performanse proizvoda i pristup umanjivanja rizika.
-
Planovi faza objavljivanja i kontinualna procena. Posvećeni smo učenju i poboljšanju našeg odgovornog AI pristupa neprekidno dok se razvijaju naše tehnologije i ponašanje korisnika. Naša strategija postepenog izdanja je bila osnovna stvar načina na koji bezbedno premeštamo tehnologiju iz laboratorije u svet, i posvećeni smo promišlјivom, promišlјivom procesu obezbeđivanja prednosti Kopilot iskustva. Redovno vršimo promene u kopilotu da bismo poboljšali performanse proizvoda i postojeća umanjivanja i primenili nova umanjivanja kao odgovor na naša učenja.
-
Korišćenje klasifikatora i sistemske poruke radi umanjivanje potencijalnih rizika ili lažne upotrebe. Kao odgovor na upite korisnika, LLM-i mogu da daju problematičan sadržaj. Razgovarali smo o tipovima sadržaja koje pokušavamo da ograničimo u gorenavedenim odeljcima Ponašanje sistema i Ograničenja. Klasifikatori i sistemska poruka su dva primera umanjivanja koja su primenjena u kopilotu kako bi se smanjio rizik od ovih tipova sadržaja. Klasifikatori klasifikuju tekst da bi označili zastavicom potencijalno štetan sadržaj u odzivima korisnika ili generisanim odgovorima. Koristimo i postojeće najbolje prakse za korišćenje sistemske poruke, što obuhvata davanje uputstava modelu kako bi se njegovo ponašanje uskladili sa AI principima korporacije Microsoft i očekivanjima korisnika.
-
Pristajem na otpremanje slika u Kopilot. Kada korisnik prvi put otpremi sliku koja sadrži lica u Copilot, od njih će biti zatraženo da pruže pristanak da se njihovi biometrički podaci otpreme u Kopilot. Ako korisnik ne da saglasnost, slika se neće poslati u Copilot. Sve slike, bez obzira na to da li sadrže lica ili ne, brišu se u roku od 30 dana nakon završtka razgovora.
-
Otkrivanje veжih informacija. Kopilot je takođe dizajniran da obavesti ljude da su u interakciji sa AI sistemom. Kako se korisnici bace na Copilot, nudimo različite tačake osetljive na dodir dizajnirane da im pomognemo da razumeju mogućnosti sistema, otkrivamo im da Copilot koristi tehnologiju veštake i obaveštavamo o ograničenjima. Iskustvo je osmišljeno na ovaj način da pomogne korisnicima da na najbolji način koriste Copilot i umanji rizik od preterane odgovornosti. Otkrivanja takođe pomažu korisnicima da bolje razumeju Copilot i njihovu interakciju sa njim.
-
Medijska dokaza. Kada Copilot generiše sliku, omogućili smo funkciju "Akreditivi sadržaja" koja koristi kriptografske metode za označavanje izvora ili "dokazivanje", svih AI generisanih slika napravljenih pomoću kopilot-a. Ova tehnologija koristi standarde koje je postavila Koalicija za sadržaj i autentičnost (C2PA) da bi dodala još jedan sloj poverenja i transparentnosti za slike koje generiše verodostojnost.
-
Automatizovano otkrivanje sadržaja. Kada korisnici otpremaju slike kao deo odziva za ćaskanje, Copilot primenjuje alatke za otkrivanje seksualnog iskorišćavanja dece i slike zloupotrebe (CSEAI). Microsoft izveštava sve prividne CSEAI Nacionalnom centru za nestalu i eksploatisanu decu (NCMEC), kao što to zahteva američki zakon. Kada korisnici otpreme datoteke da bi ih analizirali ili obradili, Copilot primenjuje automatizovano skeniranje kako bi otkrio sadržaj koji može dovesti do rizika ili pogrešnog korišćenja, kao što je tekst koji se može povezan sa nelegalnim aktivnostima ili zlonamernim kodom.
-
Uslovi korišćenja i pravila ponašanja. Korisnici bi trebalo da se prisećaju primenljivih Uslova korišćenja i Ugovora o korišćenju Microsoft usluga i Microsoft izjave o privatnosti, koji ih, između ostalog, obaveštava o neprihvatljivoj i neprihvatljivoj upotrebi i posledicama kršenja uslova. Uslovi korišćenja takođe pružaju dodatna otkrivanja za korisnike i služi kao referenca za korisnike da saznaju više o funkciji Copilot. Korisnici koji izvrše ozbiljna ili ponovljena kršenja mogu biti privremeno ili trajno obustavljene iz usluge.
-
Povratne informacije, nadgledanje i nadzor. Iskustvo kopilot-a razvija se na postojeću alatku koja omogućava korisnicima da proslede povratne informacije koje pregledaju Microsoft operativni timovi. Pored toga, naš pristup mapiranju, merenju i upravljanju rizicima nastaviće da se razvija dok saznajemo više i već pravimo poboljšanja na osnovu povratnih informacija prikupljenih tokom perioda pregleda.
Saznajte više o odgovornom veštačenju
Izveštaj o prozirnosti microsoft odgovorne usluge AI
Saznajte više o Microsoft Copilot
Osnovni podaci o ovom dokumentu
© Microsoft Corporation 2024. Sva prava zadržana. Ovaj dokument je obezbeđen "onakva koliko jeste" i samo u informativne svrhe. Informacije i prikazi izraženi u ovom dokumentu, uključujući URL i druge reference internet veb lokacije, mogu se promeniti bez obaveštenja. Vi snosite rizik njegovog korišćenja. Neki primeri su samo za ilustraciju i fiktivni. Nijedno pravo povezivanje nije predviđeno ili zamijenjeno.
Ovaj dokument nije predviđen i ne bi ga trebalo proučiti kao pravni savet. Jurisdikcija u kojoj radite može da ima različite regulatorne ili pravne zahteve koji se primenjuju na vaš AI sistem. Obratite se pravnom specijalistu ako niste sigurni u vezi sa zakonima ili propisima koji mogu da se primene na vaš sistem, naročito ako mislite da to može da utiče na ove preporuke. Imajte na umu da za svaki scenario nisu prikladne sve ove preporuke i resursi, a nasuprot tome, ove preporuke i resursi možda neće biti dostupni za neke scenarije.
Objavljeno: 10.10.2024.
Poslednji put ažurirano: 10.10.2024.