Prijavite se pomoću Microsoft naloga
Prijavite se ili kreirajte nalog.
Zdravo,
Izaberite drugi nalog.
Imate više naloga
Odaberite nalog pomoću kojeg želite da se prijavite.

Poslednji put ažurirano: februar 2024.

Osnove o Kopilotu u usluzi Bing   

Uvod  

U februaru 2023. Microsoft je pokrenuo novi Bing, iskustvo pretraživanja na vebu poboljšano. On podržava korisnike tako što rezimira rezultate veb pretrage i obezbeđuje iskustvo ćaskanja. Korisnici takođe mogu da generišu kreativni sadržaj, kao što su pesme, šale, priče i, pomoću usluge Bing Kreiranje slika, slika. Novi AI poboljšani Bing pokreće se na raznim naprednim tehnologijama korporacije Microsoft i OpenAI, uključujući GPT-4, model velikog jezika sa ivicom (LLM) i DALL-E, model dubokog učenja za generisanje digitalnih slika iz opisa prirodnog jezika, i to i iz programa OpenAI. Radili smo sa oba modela mesecima pre javnog izdanja da bismo razvili prilagođeni skup mogućnosti i tehnika kako bismo se pridružili ovoj najsavršenoj AI tehnologiji i veb pretrazi u novoj usluzi Bing.  U novembru 2023. Microsoft je preimenovan u novi Bing u Copilot u usluzi Bing.

U korporaciji Microsoft ozbiljno shvatimo našu posvećenost odgovornom veštinom. Iskustvo Kopilot u usluzi Bing razvije se u uravnoteženosti sa Microsoft AI principima, Odgovornim AI standardom korporacije Microsoft i u partnerstvu sa odgovornim veštacima iz čitave kompanije, uključujući Microsoft-ovu kancelariju odgovornog AI-ja, naše inženjerske timove, Microsoft Research i Ether. Ovde možete da saznate više o odgovornom veštačenju korporacije Microsoft.  

U ovom dokumentu opisujemo naš pristup odgovornom AI za Copilot u usluzi Bing. Pre objavljivanja usvojili smo najsamerobuhvatne metode za identifikovanje, merenje i umanjivanje potencijalnih rizika i upotrebe sistema i obezbeđivanje njegovih pogodnosti za korisnike. Nastavljajući da razvijamo Kopilot u Bingu od prvog objavljivanja, nastavili smo da učimo i poboljšavamo odgovorne AI napore. Ovaj dokument će se periodično ažurirati kako bi se obaveštavali o procesima i metodama razvoja.   

Ključni termini  

Kopilot u usluzi Bing je iskustvo pretraživanja veba poboljšano. Dok se pokreće na moćnim, novim tehnologijama, počinjemo definisanjem nekih ključnih termina.  

Modeli mašinskog učenja koji vam pomažu da sortirate podatke u označene razrede ili kategorije informacija. U usluzi Copilot u usluzi Bing, jedan od načina na koji koristimo klasifikatore jeste da pomognemo u otkrivanju potencijalno štetnog sadržaja koji su korisnici prosledili ili koji je generisan od strane sistema kako bi se umanjilo generisanje tog sadržaja i zloupotreba ili zloupotreba sistema. 

Kopilot u usluzi Bing nalazi se u rezultatima veb pretrage kada korisnici traže informacije. To znači da centriramo odgovor koji je dat na upit korisnika ili odziv o sadržaju visokog rangiranja sa veba i obezbeđujemo veze ka veb lokacijama kako bi korisnici mogli da saznaju više. Bing rangiranje sadržaja veb pretrage znatnom težinom funkcija kao što su relevantnost, kvalitet i kredibilitet i svežina. Ove koncepte detaljnije opisujemo u članku Kako Bing isporučuje Search rezultate (pogledajte odeljak "Kvalitet i kredibilitet" u odeljku "Kako je Bing rang Search rezultata").   

Osnovane odgovore smatramo odgovorima iz korporacije Copilot u usluzi Bing u kojima su izjave podržane informacijama sadržanim u ulaznim izvorima, kao što su rezultati veb pretrage iz upita ili upita, informacije o provere baza znanja nim činjenicama u usluzi Bing i nedavna istorija razgovora iz ćaskanja. Neosnovani odgovori su oni u kojima izraz nije osnovan u tim ulaznim izvorima.  

Veliki jezički modeli (LLM-ove) u ovom kontekstu su AI modeli koji su obučeni za velike količine tekstualnih podataka za predviđanje reči u nizovima. LLM-ove mogu da izvršavaju razne zadatke, kao što su generisanje teksta, rezimiranje, prevođenje, klasifikacija i još mnogo toga.  

Metaprompt je program koji služi da vodi ponašanje sistema. Delovi metaprompt pomažu u poravnanju ponašanja sistema sa Microsoft AI principima i očekivanjima korisnika. Na primer, metaprompt može da sadrži red kao što je "komunikacija u korisničkom jeziku izbora".  

Metod ili kombinacija metoda dizajniranih za smanjivanje potencijalnih rizika do kojih može doći zbog korišćenja funkcija zasnovanih na vešalima u usluzi Copilot u usluzi Bing.  

Tekst, glas, slike i/ili drugi omogućeni upiti koje korisnik šalje usluzi Bing kao unos u model koji omogućava nova generativna iskustva zasnovana na veštačkim inteligencijama u usluzi Bing. Na primer, korisnik može da doda sledeći odziv:  

"Planiram put za godišnjicu u septembru. Gde možemo da odemo, a koja su u 3-časovnom letu sa London Heathrowa?”  

Tekst koji korisnik šalje usluzi Bing sa trake za pretragu za pretragu na vebu. U ovom dokumentu razlikuje se upit (za pretragu na vebu) od upita (za generativna iskustva zasnovana na veštačkim inteligencijama u usluzi Bing). Na primer, korisnik može da uvede sledeći upit za pretraživanje veba:  

"travel destinations near London Heathrow airport"  

Tehnike koje koriste stručnjaci za procenu ograničenja i ranjivosti sistema i za testiranje efikasnosti planiranih umanjivanja. Crveno testiranje i testiranje stresa koriste se za identifikovanje potencijalnih rizika i razlikuju se od sistematskih mera rizika.   

Tekst, slika, grafikoni itd. koji Copilot u usluzi Bing daje odgovor na odziv. Sinonimi za "odgovor" uključuju "dovršavanje", "generaciju" i "odgovor". Na primer, Bing može da pruži sledeći odgovor na odziv koji smo koristili u definiciji upita iznad:   

"Čestitamo vam na godišnjici! Postoji mnogo mesta na koja možete da odete i koja su u 3-časovnom letu od London Heathrowa. Prema jednom izvoru, neki od vikenda beže za tri sata avionom iz Londona su Bilbao, Kopenhagen, Rejkjavik i Stokholm 1, 2. Drugi izvor predlaže neka od najboljih mesta za odlazak u Evropu u septembru su Krakov, Firenca i Lisabon 3, 4. Takođe možete da proverite direktne letove sa lokacije London Heathrow do raznih odredišta i vidite šta vam se dopalo. Nadam se da ćete se lepo prošetati!”  

Nameravane upotrebe i nova iskustva veštake  

Copilot u predviđenim koristima usluge Bing jeste da poveže korisnike sa relevantnim rezultatima pretrage, pregleda rezultate sa veba kako bi pronašli i rezimirali odgovore koje korisnici traže, pomogli korisnicima da suže istraživanje kako bi dobili odgovore pomoću iskustva ćaskanja i podstakli kreativnost pomažući korisnicima da kreiraju sadržaj. Kopilot u Bing generativnim AI iskustvima ispod podržava cilj da bude kopilot sa veštaskom inteligencom za veb.  

Rezimiranje. Kada korisnici proslede upit za pretraživanje u usluzi Copilot u usluzi Bing, Bing sistem obrađuje upit, izvršava jednu ili više veb pretraga i koristi najvažnije rezultate veb pretrage za generisanje rezimea informacija koje će korisnicima predstaviti. Ti rezimei uključuju reference koje pomažu korisnicima da vide rezultate pretrage i da im lako pristupe koji se koriste da bi se rezime osnovao. Rezimei se mogu pojaviti na desnoj strani stranice sa rezultatima pretrage i u okviru iskustva ćaskanja.  

Iskustvo ćaskanja. Pored rezimiranja, korisnici mogu da ćaskaju sa funkcijom Copilot u Bing sistemu putem teksta, slike ili glasovnog unosa, postavljaju dodatna pitanja da bi pojasnili pretrage i pronašli nove informacije i prosledili odzive za generisanje kreativnog sadržaja. Reference su uključene i u iskustvo ćaskanja kada Copilot u usluzi Bing rezimira rezultate pretrage u odgovoru.   

Generisanje kreativnog sadržaja. U iskustvu ćaskanja i na stranici za pretragu, korisnici mogu da kreiraju pesme, šale, priče, slike i drugi sadržaj uz pomoć od Kopilot-a u usluzi Bing.  Slike kreira Designer (bivši Bing Kreiranje slika) i korisnici mogu da pristupe funkciji putem Designer, kao i na kopilot stranici. 

Kako Funkcioniše Copilot u usluzi Bing?  

Sa Copilot-om u usluzi Bing, razvili smo inovativni pristup da uvedemo osnovne LLM-ove u veb pretragu. Kada korisnik unese upit u kopilotu u usluzi Bing, odziv, nedavna istorija razgovora, metaprompt i najvažniji rezultati pretrage šalju se kao unosi u LLM. Model generiše odgovor pomoću odziva korisnika i nedavne istorije razgovora da bi kontekstualizovao zahtev, metaprompt za usklađivanje odgovora sa Microsoft AI principima i očekivanjima korisnika, kao i rezultate pretrage na osnovu odgovora u postojećem sadržaju visokog rangiranja sa veba.   

Odgovori se prikazuju korisnicima u nekoliko različitih formata, kao što su tradicionalne veze ka veb sadržaju, rezimei, slike i odgovori na ćaskanje koje je generisala AI. Rezimei i odgovori na ćaskanje koji se oslanjaju na rezultate pretrage na vebu sadržaće reference i odeljak "Saznajte više" ispod odgovora, sa vezama ka rezultatima pretrage koji su korišćeni za osnovano odziv. Korisnici mogu da kliknu na ove veze da bi saznali više o temi i informacijama koje se koriste za sažeti rezime ili odgovor na ćaskanje.    

U iskustvu sa Kopilotom korisnici mogu da vrše pretrage na vebu razgovorom tako što će dodati kontekst u odziv i vršiti interakciju sa odgovorima sistema kako bi dodatno naveli interesovanja za pretragu. Na primer, korisnik može da postavi dodatna pitanja, zatraži dodatna pojašnjavanja informacija ili da odgovori sistemu na razgovor. U iskustvu ćaskanja korisnici takođe mogu da izaberu odgovor iz unapred napisanih predloga, koje nazivamo predlozima za ćaskanje. Ova dugmad se pojavljuju posle svakog odgovora od Copilot-a i pružaju predložene odzive za nastavak razgovora u okviru iskustva ćaskanja. Predlozi ćaskanja se takođe pojavljuju zajedno sa rezimiranim sadržajem na stranici rezultata pretrage kao ulazna tačka za iskustvo ćaskanja.  

Kopilot u usluzi Bing takođe omogućava korisniku da kreira priče, pesme, tekstove pesama i slike uz pomoć usluge Bing. Kada Copilot u usluzi Bing otkrije korisničku nameri da generiše kreativni sadržaj (na primer, odziv počinje sa "napiši mi..."), sistem će, u većini slučajeva, dati odgovor na odziv korisnika. Slično tome, kada Copilot u usluzi Bing otkrije korisničku nameri da generiše sliku (na primer, odziv počinje sa "nacrtaj mi ..."), sistem će, u većini slučajeva, generisati sliku koja se odaziva na odziv korisnika. U programu Visual Search u ćaskanju, sa slikom koju je uhvatila kamera korisnika, otpremljen sa uređaja korisnika ili povezana sa veba, korisnici mogu upitati Copilot u usluzi Bing da razumeju kontekst, tumače i odgovore na pitanja o slici.  Korisnici takođe mogu da otpreme svoje datoteke u Copilot da bi tumačili, konvertovali, obrađili ili izračunali informacije iz njih. U iskustvu Microsoft Designer korisnici mogu da pristupe preko usluge Copilot u usluzi Bing, korisnici ne mogu samo da generišu slike pomoću odziva, već i da im promene veličinu ili ponovo rasporede, ili da uređuju, kao što je zamaglјena pozadina ili da boje učinite živopisnijim. 

Korisnici koji imaju Microsoft naloge (MSA) sada imaju i opciju da se pretplate na Copilot Pro koji nudi poboljšano iskustvo, uključujući ubrzane performanse, brže pravljenje AI slika, kao i uskoro mogućnost da kreiraju sopstvene Kopilot GPT-ove. Copilot Pro je trenutno dostupna u ograničenim zemljama i planiramo da Copilot Pro uskoro dostupne na više tržišta.

U kopilot iskustvu korisnici mogu da pristupe Kopilot GPT-ovima. Copilot GPT, kao što je Designer GPT, predstavlja prilagođenu verziju programa Microsoft Copilot na temi koja vas posebno zanima, kao što su fitnes, putovanja i kuvanje, koja može da pretvori nejasne ili opšte ideje u specifičnije odzive sa rezultatima uključujući tekst i slike. U Kopilot korisnicima mogu da vide dostupne Copilot GPTs, a korisnici koji imaju Copilot Pro naloge uskoro će imati pristup kopilot GPT builderu, funkciji koja korisnicima omogućava da kreiraju i konfiguriše prilagođeni Copilot GPT. Odgovorna AI umanjivanja koja su pomenuta iznad za Copilot u Bingu odnose se na Kopilot GPTs.

Da biste saznali više o tome kako Copilot Pro I Kopilot GPT-ove rade, posetite ovde.

Kopilot u usluzi Bing nastoji da pruži različite i sveobuhvatne rezultate pretrage uz posvećenost da oslobodi i otvori pristup informacijama. Istovremeno, napori na kvalitetu proizvoda uključuju rad na izbegavanju nenamernog promovisanja potencijalno štetnog sadržaja korisnicima. Više informacija o tome kako Bing rangiranje sadržaja, uključujući način na koji definiše relevantnost i kvalitet i kredibilitet veb stranice, dostupno je u odeljku "Bing Webmaster Vodiči".   Više informacija o principima moderacije sadržaja usluge Bing dostupno je u odeljku "Kako Bing isporučuje rezultate pretrage".   

U iskustvu sa Kopilot u operativnom sistemu Windows, Copilot u usluzi Bing može da radi sa operativnim sistemom Windows kako bi pružio veštine specifične za Windows, kao što su promena teme ili pozadine korisnika i promena postavki kao što su zvuk, Bluetooth i umrežavanje. Ova iskustva omogućavaju korisniku da konfiguriše postavke i poboljša korisničko iskustvo koristeći odzive prirodnog jezika za LLM. Funkcionalnost specifična za aplikaciju može da se obezbedi i iz dodatnih komponenti aplikacije nezavisnih proizvođača. To može automatizovati zadatke koji se ponavljaju i postići veću korisničku efikasnost. Zbog toga što LLM-i povremeno mogu da pogreše, pružaju se odgovarajući odzivi za potvrdu korisnika tako da je korisnik poslednji arbitar promena koje se mogu izvršiti. 

Identifikovanje, merenje i umanjivanje rizika  

Kao i druge transformacione tehnologije, iskoristivanje pogodnosti veštačkih inteligentnih usluga nije oslobađeno na rizik, a suprotstavljeni AI program korporacije Microsoft osmišljen je da identifikuje potencijalne rizike, izmeri njihovu spremnost za njihovo pojavljivanje i izgradi umanjivanja kako bi ih rešio. Vođeni našim AI principima i našim odgovornim veštačkim standardom, trudili smo se da identifikujemo, izmerimo i umanjimo potencijalne rizike i zlonamerne upotrebe Copilot-a u usluzi Bing, a da pri tom obezbedimo transformativnu i korisnu upotrebu koju pruža novo iskustvo. U odeljcima ispod opisujemo svoj iterativni pristup identifikovanje, merenje i umanjivanje potencijalnih rizika.   

Na nivou modela, rad je počeo istraživanjem GPT-4 krajem leta 2022. To je obuhvaćeno sprovođenjem obimnog crvenog testiranja tima u saradnji sa openAI. Testiranje je dizajnirano da proceni kako će najnovija tehnologija funkcionisati bez ikakve dodatne zaštite na nju. Naša namera u ovom trenutku bila je da proizvedemo štetne odgovore, otkrijemo potencijalne avenije za lažnu upotrebu i identifikujemo mogućnosti i ograničenja. Naša kombinovana učenja širom programa OpenAI i Microsoft doprinela su napretku u razvoju modela i, za nas u korporaciji Microsoft, obavestili nas o rizicima i doprineli strategijama ranog umanjivanja za Copilot u usluzi Bing.  

Pored testiranja crvenog tima na nivou modela, multidisciplinarni tim stručnjaka je obavio brojne runde testiranja crvenog tima na nivou aplikacije na kopilotu u Bing AI iskustvima pre nego što ih učini javno dostupnim u našem ograničenom pregledu izdanja. Ovaj proces nam je pomogao da bolje razumemo kako sistem mogu da iskoriste protivnički akteri i da poboljšamo naša umanjivanja. Nenadverzivni testovi za stres takođe obimno procenjuju nove Bing funkcije za nedostatke i ranjivosti. Posle izdanja, nova AI iskustva u usluzi Bing integrisana su u postojeću meru proizvodnje i infrastrukturu testiranja Bing inženjeringa. Na primer, crveni testirači tima iz različitih regiona i pozadina neprekidno i sistematski pokušavaju da ugroze sistem, a njihovi rezultati se koriste za razvijanje skupova podataka koje Bing koristi za poboljšanje sistema.  

Crveno testiranje tima i testiranje stresa može da prikaže instance određenih rizika, ali će u proizvodnji korisnici imati milione različitih vrsta razgovora sa Copilot-om u usluzi Bing. Štaviše, razgovori su višestruki preobraćaj i kontekstualni, a identifikovanje štetnog sadržaja u okviru razgovora je složen zadatak. Da bismo bolje razumeli i rešili potencijal za rizike u Kopilotu u Bing AI iskustvima, razvili smo dodatnu odgovornu AI metriku specifičnu za ta nova AI iskustva za merenje potencijalnih rizika kao što su bespomoći, štetni sadržaj i neostećeni sadržaj. Takođe smo omogućili mere u skali kroz delimično automatizovane kanale mera. Svaki put kada se proizvod promeni, ažuriraju se postojeća umanjivanja ili se predlažu nova umanjivanja, ažuriramo kanale mera da bismo procenili performanse proizvoda i odgovornu AI metriku.  

Kao ilustrativni primer, ažurirani delimično automatizovani kanal mera za štetni sadržaj uključuje dve glavne inovacije: simuliranje razgovora i automatizovanu belešku razgovora verifikovanu od ljudi. Najpre, odgovorni veštaci za AI napravili su predloške za hvatanje strukture i sadržaja razgovora koji mogu da dovesti do različitih tipova štetnog sadržaja. Ovi predlošci su tada data agentu za razgovor koji je vršio interakciju kao hipotetički korisnik sa Kopilot-om u usluzi Bing, koji generiše simulirane razgovore. Da bismo utvrdili da li ti simulirani razgovori sadrže štetan sadržaj, preduzeli smo uputstva koja obično koriste stručni lingvisti da bi označili podatke i izmenili ih za korišćenje pomoću programa GPT-4 za označavanje razgovora na skali, precizirajući smernice dok nije došlo do značajnog dogovora između razgovora označenih modelom i razgovora označenih sa ljudima. Na kraju smo koristili razgovore označene modelom da bismo izračunali odgovornu AI metriku koja beleži efikasnost Kopilot-a u usluzi Bing u umanjivanju štetnog sadržaja.   

Naši merni kanali nam omogućavaju da brzo izvršimo merenje potencijalnih rizika na nivou. Kako tokom perioda pregleda i trenutnog testiranja crvenog tima identifikujemo nove probleme, nastavljamo da širimo skupove mera kako bismo procenili dodatne rizike.  

Dok smo identifikovali potencijalne rizike i greške tokom procesa kao što su testiranje crvenog tima i testiranje stresa i merili ih inovativnim pristupima opisanim iznad, razvili smo dodatna umanjivanja za one koji se koriste za tradicionalnu pretragu. U nastavku opisujemo neke od tih umanjivanja. Nastavićemo da nadgledamo Kopilot u Bing AI iskustva kako bismo poboljšali performanse i umanjivanja proizvoda.  

Faza izdavanja, kontinualna procena. Posvećeni smo učenju i poboljšanju našeg odgovornog AI pristupa neprekidno dok se razvijaju naše tehnologije i ponašanje korisnika. Naљa strategija postepenog oslonjanja je bila suљtini deo toga kako bezbedno premeštamo tehnologiju iz laboratorija u svet, i posveжeni smo namernom, paћnjem procesu obezbeрivanja prednosti Kopilot-a u Bingu. Ograničavanje broja osoba sa pristupom tokom perioda pregleda omogućilo nam je da otkrijemo kako ljudi koriste Copilot u usluzi Bing, uključujući način na koji ljudi mogu da ga pogrešno koriste, tako da možemo pokušati da umanjimo pojavljivanje problema pre šireg izdanja. Na primer, zahtevamo od korisnika da potvrde identitet pomoću Microsoft naloga pre pristupa potpuno novom Bing iskustvu. Neovlašćeni korisnici mogu da pristupe samo ograničenom pregledu iskustva. Ovi koraci oduzimaju zloupotrebu i pomažu nam da (po potrebi) preduzmemo odgovarajuću radnju kao odgovor na kršenja Pravila ponašanja.  Svakodnevno vršimo promene u kopilotu u usluzi Bing kako bismo poboljšali performanse proizvoda, poboljšali postojeća umanjivanja i primenili nova umanjivanja kao odgovor na naša učenja tokom preliminarnog perioda.  

Osnova rezultata pretrage. Kao što je navedeno iznad, Copilot u usluzi Bing dizajniran je da pruži odgovore koje podržavaju informacije u rezultatima veb pretrage kada korisnici traže informacije. Na primer, sistemu se obezbeđuje tekst iz najvažnijih rezultata pretrage i uputstva putem metaprompt-a da bi se odredio njegov odgovor. Međutim, u rezimiranju sadržaja sa veba, Copilot u usluzi Bing može da uključi informacije u odgovoru koji nije prisutan u ulaznim izvorima. Drugim rečima, to može dati neosnivane rezultate. Rane procene ukazuju na to da neosporni rezultati u ćaskanju mogu biti raspodeljljivije za određene tipove odziva ili tema od drugih, kao što su traženje matematičkih izračunavanja, finansijskih informacija ili informacija o tržištu (na primer, zarada preduzeća, podaci o performansama deonica) i informacije kao što su precizni datumi događaja ili određene cene stavki. Korisnici uvek treba da budu oprezni i da koriste najbolju procenu prilikom prikazivanja rezimiranih rezultata pretrage, bilo na stranici sa rezultatima pretrage ili u iskustvu ćaskanja. Preduzeli smo nekoliko mera da bismo umanjili rizik da korisnici mogu da se oslanjaju na neosnovni generisani sadržaj u scenarijima rezimiranja i iskustvima ćaskanja. Na primer, odgovori u kopilotu u usluzi Bing koji su zasnovani na rezultatima pretrage uključuju reference na izvorne veb lokacije za korisnike da bi verifikovali odgovor i saznali više. Korisnici dobijaju i eksplicitno obaveštenje da vrše interakciju sa AI sistemom i savetujemo da provere izvorne materijale rezultata na vebu kako bi im pomogli da koriste najbolje rasuđivanje.  

Klasifikatori zasnovani na veštacima i metapromovanje radi umanjivanja potencijalnih rizika ili pogrešnog iskorišćavanja. Upotreba LLM-a može da proizvede problematičan sadržaj koji može dovesti do rizika ili pogrešnog korišćenja. Primeri mogu da uključuju izlaz koji se odnosi na samokodite, nasilje, grafički sadržaj, intelektualnu svojine, netačne informacije, govor mržnje ili tekst koji može da se odnosi na nezakonite aktivnosti. Klasifikatori i metapromping su dva primera umanjivanja koja su primenjena u kopilotu u usluzi Bing kako bi se smanjio rizik od ovih tipova sadržaja. Klasifikatori klasifikuju tekst tako da označava zastavicom različite tipove potencijalno štetnog sadržaja u upitima za pretragu, upitima za ćaskanje ili generisanim odgovorima. Bing koristi klasifikatore zasnovane na AI-u i filtere sadržaja, koji se primenjuju na sve rezultate pretrage i relevantne funkcije; dizajnirali smo dodatne klasifikatore odziva i filtere sadržaja posebno da bismo se suočili sa mogućim rizicima koje je kopilot podigao u Bing funkcijama. Zastavice dovode do potencijalnih umanjivanja, kao što je ne vraćanje generisanog sadržaja korisniku, preusmeravanje korisnika na drugu temu ili preusmeravanje korisnika na tradicionalnu pretragu. Metaprompiranje uključuje davanje uputstava za model kako bi se vodilo njegovo ponašanje, uključujući kako bi se sistem ponašao u skladu sa AI principima korporacije Microsoft i očekivanjima korisnika. Na primer, metaprompt može da sadrži red kao što je "komunikacija u korisničkom jeziku izbora".   

Zaštita privatnosti u programu Visual Search u kopilotu u usluzi Bing. Kada korisnici otpreme sliku kao deo odziva za ćaskanje, Copilot u usluzi Bing će koristiti tehnologiju zamućenja lica pre slanja slike UI modelu. Zamagljene očiju koriste se za zaštitu privatnosti pojedinaca na slici. Tehnologija zamagljenja lica oslanja se na kontekstne tragove kako bi utvrdila gde treba zamućiti i pokušati da zamuti sva lica. Kada su lica zamućena, AI model može da uporedi ulaznu sliku sa slikama koje su javno dostupne na internetu. Kao rezultat toga, Kopilot u Bingu će možda moći da identifikuje poznatog košarkaša sa fotografije tog igrača na košarkaškom terenu tako što će napraviti numerički prikaz koji odražava broj dresa igrača, boju dresa, prisustvo košarkaškog košarkaškog koša itd. Copilot u usluzi Bing ne skladišti numeričke prikaze osoba sa otpremljenih slika i ne deli ih sa trećim licima. Copilot u usluzi Bing koristi numeričke prikaze slika koje korisnici otpremaju samo radi odgovaranja na odzive korisnika, a zatim se brišu u roku od 30 dana nakon završetaka ćaskanja.    

Ako korisnik u usluzi Bing zatraži informacije o otpremljenoj slici, odgovori na ćaskanje mogu da odražavaju uticaj zamagljenih lica na mogućnost modela da pruži informacije o otpremljenoj slici. Na primer, Copilot u usluzi Bing može da opisuje nekoga kao da ima zamagućeno lice.    

Ograničavanje lutanja razgovora. Tokom perioda pregleda saznali smo da veoma duge sesije ćaskanja mogu dovesti do odgovora koji se ponavljaju, nisu od pomoći ili su nedosledni Copilot-u u nameravanom Bing tonu. Da bismo rešili ovaj problem tokom razgovora, ograničili smo broj smena (razmena koje sadrže i pitanje korisnika i odgovor od Copilot-a u usluzi Bing) po sesiji ćaskanja. Nastavljamo da procenjujemo dodatne pristupe za umanjivanje ovog problema.  

Obogaćivanje odziva. U nekim slučajevima, odziv korisnika može biti nejasan. Kada se to dogodi, Copilot u usluzi Bing može da koristi LLM da bi izradio više detalja u odzivu kako bi obezbedio korisnicima da dobiju odgovor koji traže. Takvo obogaćivanje odziva ne oslanja se na bilo koje znanje korisnika ili njihovih prethodnih pretraga, već umesto na vešti model. Ti korigoovani upiti će biti vidljivi u istoriji ćaskanja korisnika i, kao i druge pretrage, mogu da se izbrišu pomoću kontrola u proizvodu.  

Intervencije dizajna i korisničkog iskustva centriranog korisnika. Dizajn i korisnička iskustva zasnovana na korisnicima su suštinski aspekt pristupa korporacije Microsoft odgovornom veštačenju. Cilj je koren dizajna proizvoda u potrebama i očekivanjima korisnika. Dok korisnici prvi put vrše interakciju sa kopilotom u usluzi Bing, nudimo različite tačke osetljive na dodir dizajnirane da im pomognemo da razumeju mogućnosti sistema, otkrivamo im da Copilot u usluzi Bing koristi tehnologiju venecijan-a i obaveštavamo o ograničenjima. Iskustvo je osmišljeno na ovaj način da pomogne korisnicima da na najbolji način koriste Copilot u usluzi Bing i umanji rizik od preterane odgovornosti. Elementi iskustva takođe pomažu korisnicima da bolje razumeju Copilot u usluzi Bing i njihovu interakciju sa njim. To uključuje predloge ćaskanja specifične za odgovornog AI (na primer, kako Bing koristi AI? Zašto Copilot u usluzi Bing neće odgovoriti na neke teme?), objašnjenja ograničenja, načini na koje korisnici mogu da saznaju više o tome kako sistem funkcioniše i prijavi povratne informacije, kao i reference koje se lako kreću kroz odgovore kako bi korisnicima prikazali rezultate i stranice na kojima se zasniva na odgovorima.  

Otkrivanje veжih informacija. Copilot u usluzi Bing pruža nekoliko tačaka osetljivih na dodir za smisleno AI otkrivanje gde se korisnicima pruža obaveštenje da vrše interakciju sa AI sistemom, kao i mogućnostima da saznaju više o kopilotu u usluzi Bing. Osnaživanje korisnika sa ovim znanjem može da im pomogne da izbegnu prenasebnu upotrebu veštačenja i saznaju o jačinama i ograničenjima sistema.  

Medijska dokaza.Microsoft Designer je omogućio funkciju "Akreditivi sadržaja" koja koristi kriptografske metode za označavanje izvora ili "dokazivanje" svih AI generisanih slika kreiranih na Designer. Nevidljiva funkcija digitalnog vodenog žiga prikazuje izvor, vreme i datum originalne kreacije i te informacije se ne mogu menjati. Tehnologija koristi standarde koje je postavila Koalicija za sadržaj i autentičnost (C2PA) da bi dodala još jedan sloj poverenja i transparentnosti za slike koje generiše verodostojnost. Microsoft je suosnivač C2PA i doprineo je osnovnoj tehnologiji dokazivanja digitalnog sadržaja. 

Uslovi korišćenja i pravila ponašanja. Ovaj resurs reguliљe upotrebu Copilot-a u usluzi Bing. Korisnici bi trebalo da se pri prihvatljive upotrebe i pravila ponašanja , koji ih, između ostalog, obaveštavaju o neprihvatljivoj i neprihvatljivoj upotrebi i posledicama kršenja uslova. Uslovi korišćenja takođe pružaju dodatna otkrivanja za korisnike i služi kao korisna referenca za korisnike da saznaju više o kopilotu u usluzi Bing.   

Operacije i brz odgovor. Takođe koristimo Copilot u Bing-ovom tekućem nadgledanju i operativnom procesu da bismo rešili kada Copilot u usluzi Bing prima signale ili prima izveštaj koji ukazuje na moguću upotrebu ili kršenje Uslova korišćenja ili Kodešta ponašanja.  

Povratne informacije, nadgledanje i nadzor. Iskustvo kopilot u usluzi Bing razvija se na postojeću alatku koja omogućava korisnicima da proslede povratne informacije i izveštaje o problemima koje pregledaju Operativni timovi korporacije Microsoft. Operativni procesi u usluzi Bing razvili su se i da bi prilagodili funkcije u okviru kopilot u usluzi Bing, na primer, ažuriranje stranice "Izveštaj na zabrinutost" tako da uključuje nove tipove sadržaja koje korisnici generišu uz pomoć modela.   

Naš pristup identifikovanju, merenju i umanjivanju rizika nastaviće da se razvija dok saznajemo više i već pravimo poboljšanja na osnovu povratnih informacija prikupljenih tokom perioda pregleda.     

Automatizovano otkrivanje sadržaja. Kada korisnici otpremaju slike kao deo odziva za ćaskanje, Copilot u usluzi Bing primenjuje alatke za otkrivanje seksualne iskorišćavanja i zloupotrebe dece (CSEAI), prevaspitavaju se PhotoDNA heš tehnologija koja se podudara. Microsoft je razvio PhotoDNA da bi pomogao u pronalaženju duplikata poznatih CSEAI datoteka. Microsoft izveštava sve prividne CSEAI Nacionalnom centru za nestalu i eksploatisanu decu (NCMEC), kao što to zahteva američki zakon. Kada korisnici otpreme datoteke da bi ih analizirali ili obradili, Copilot primenjuje automatizovano skeniranje kako bi otkrio sadržaj koji može dovesti do rizika ili pogrešnog korišćenja, kao što je tekst koji se može povezan sa nelegalnim aktivnostima ili zlonamernim kodom.

Zaštita privatnosti  

Dugotrajno uverenje korporacije Microsoft da je privatnost osnovno ljudsko pravo informisano je o svakom stadijumu razvoja i primene Kopilot-a u Bing iskustvu. Naše obaveze na zaštiti privatnosti svih korisnika, uključujući obezbeđivanje transparentnosti i kontrole nad njihovim podacima i integrisanjem privatnosti dizajnom kroz smanjenje i namenu podataka, su osnova za Kopilot u usluzi Bing. Dok razvijamo naš pristup obezbeđivanju Kopilot-a u Bingovim generativnim AI iskustvima, neprestano ćemo istražujeti kako je najbolje zaštititi privatnost. Ovaj dokument će se ažurirati kao i mi. Više informacija o tome kako Microsoft štiti privatnost naših korisnika dostupno je u Microsoft izjavi o privatnosti.  

U iskustvu sa Kopilot u operativnom sistemu Windows, Windows veštine mogu, u sklopu njihove funkcionalnosti, deliti informacije o korisnicima sa razgovorom o ćaskanju. To podleže odobravanju korisnika i odzivi korisničkog interfejsa se prikazuju da bi se potvrdila korisnička namera pre deleđivanje korisničkih informacija sa razgovorom putem ćaskanja.

Microsoft i dalje razmatra potrebe dece i mladih ljudi kao deo procene rizika za nove generativne funkcije AI u Kopilotu u Bingu. Svi Microsoft nalozi za dete koji identifikuju korisnika kao mlađe od 13 godina ili kao što je drugačije navedeno u lokalnim zakonima ne mogu da se prijave da bi pristupili potpuno novom Bing iskustvu.   

Kao što je opisano iznad, za sve korisnike smo primenili mere zaštite koje umanjivanje potencijalno štetnog sadržaja. U kopilotu u usluzi Bing rezultati su postavljeni kao u striktnom režimu Bing safeSearch,koji ima najviši nivo zaštite bezbednosti u glavnoj Bing pretrazi, čime se sprečava da korisnici, uključujući tinejdžere, budu izloženi potencijalno štetnom sadržaju. Pored informacija koje smo pružili u ovom dokumentu i u našim najčešćim pitanjima o funkcijama ćaskanja, više informacija o tome kako Copilot u usluzi Bing funkcioniše da bi se izbeglo odgovaranje sa neočekivanim uvredljivim sadržajem u rezultatima pretrage dostupne su ovde.  

Microsoft se obavezao da neće isporučiti personalizovano oglašavanje na osnovu ponašanja na mreži deci čiji datum rođenja u microsoft nalogu ih identifikuje kao mlađe od 18 godina. Ova važna zaštita će se proširiti na ojače u kopilotu u Bing funkcijama. Korisnici mogu da vide kontekstualne oglase zasnovane na upitu ili odzivu koji se koristi za interakciju sa uslugom Bing.  

Da bismo otključali transformativni potencijal generativnog AI-ja, moramo izgraditi poverenje u tehnologiji kroz osnaživanje pojedinaca da razumeju kako se njihovi podaci koriste i pružaju im smislene izbore i kontrole nad podacima. Kopilot u usluzi Bing osmišljen je da daje prioritet ljudskim agencijama, pružajući informacije o tome kako proizvod funkcioniše, kao i svojim ograničenjima, i kroz proširenje moćnih izbora i kontrola potrošača na Copilot u Bing funkcijama.   

Microsoft izjava o privatnosti pruža informacije o našim transparentnim praksama privatnosti za zaštitu naših klijenata i pruža informacije o kontrolama koje našim korisnicima daju mogućnost da prikažu svoje lične podatke i upravljaju im. Da bismo obezbedili da korisnici imaju potrebne informacije kada vrše interakciju sa novim funkcijama za razgovor u usluzi Bing, otkrivanja u okviru proizvoda obaveštavaju korisnike da se bave AI proizvodom, a mi pružamo veze ka dodatnim najčešćim pitanjima i objašnjenju o tome kako ove funkcije rade. Microsoft će nastaviti da sluša povratne informacije korisnika i po potrebi će dodati detaljnije detalje o funkcijama razgovora u usluzi Bing kako bi podržao razumevanje načina na koji proizvod funkcioniše.   

Microsoft korisnicima pruža i moćne alatke za vežbanje njihovih prava nad ličnim podacima. Za podatke koje Copilot prikuplja u usluzi Bing, uključujući putem upita korisnika i odziva, Microsoft kontrolna tabla za privatnost pruža autorizovanim (prijavljenim) korisnicima alatke za ostvarivanje prava na temu podataka, uključujući tako što korisnicima pruža mogućnost prikazivanja, izvoza i brisanja uskladištene istorije razgovora. Microsoft nastavlja da prima povratne informacije o tome kako želi da upravlja svojim novim Bing iskustvom, uključujući korišćenje iskustava u kontekstu upravljanja podacima.   

Kopilot u usluzi Bing takođe poštuje zahteve pod evropskim pravom da budu zaboravljeni, prateći proces koji je Microsoft razvio i poboljšao u skladu sa Bing tradicionalnom funkcionalnošću pretrage. Svi korisnici mogu prijaviti zabrinutost u vezi sa generisanim sadržajem i odgovorima ovde, a naši evropski korisnici mogu da koriste ovaj obrazac za prosleđivanje zahteva za blokiranje rezultata pretrage u Evropi pod pravima da se zaborave.    

Copilot u usluzi Bing poštovaće izbore privatnosti korisnika, uključujući one koje su ranije napravljene u usluzi Bing, kao što je pristanak za prikupljanje podataka i korišćenje koje se zahteva putem reklamnih natpisa kolačića i kontrola dostupnih na Microsoft kontrolnoj tabli za privatnost. Da bismo omogućili autonomiju korisnika i agenciju prilikom donošenja informisanih odluka, koristili smo naš unutrašnji proces redigovanja da bismo pažljivo ispitali kako se izbori predstavljaju korisnicima. 

Pored kontrola dostupnih putem Microsoft kontrolne table za privatnost, koje korisnicima omogućavaju da prikazuju, izvoze i brišu istoriju pretrage, uključujući komponente istorije ćaskanja, autorizovani korisnici koji su omogućili funkciju istorije ćaskanja u proizvodu imaju mogućnost da prikazuju, pristupe istoriji ćaskanja i preuzimaju je putem kontrola u proizvodu. Korisnici mogu da obriše određena ćaskanja iz istorije ćaskanja ili da u potpunosti isključe funkcionalnost istorije ćaskanja u bilo kom trenutku tako što će posetiti stranicu sa postavkama usluge Bing. Korisnici takođe mogu da odaberu da li da dozvole personalizaciju da pristupe prilagođenijim iskustvima sa personalizovanim odgovorima. Korisnici mogu da daju saglasnosti i odbiju saglasnosti za personalizaciju u bilo kom trenutku u postavkama ćaskanja na stranici "Bing postavke".  Brisanje određenih ćaskanja iz istorije ćaskanja sprečava da se koriste za personalizaciju.  
 
Više informacija o istoriji ćaskanja i personalizovanju pružaju korisnicima u kopilotu u najčešćim pitanjima o usluzi Bing. 

Kopilot u usluzi Bing izgrađen je imajući u vidu privatnost, tako da se lični podaci prikupljaju i koriste samo po potrebi i ne zadržavaju više nego što je neophodno. Kao što je pomenuto iznad, Visual Search in Copilot in Bing feature primenjuje mehanizam koji zamagljuju lica na slikama u vreme otpremanja od strane korisnika, kako se slike lica ne bi dalje obrađivale ili skladištili. Više informacija o ličnim podacima koje Bing prikuplja, kako se koristi i kako se skladišti i briše dostupno je u Microsoft izjavi o privatnosti, koja pruža i informacije o novim funkcijama ćaskanja u usluzi Bing.   

Copilot u usluzi Bing ima smernice za zadržavanje i brisanje podataka kako bi obezbedio da se lični podaci prikupljeni putem funkcija ćaskanja putem usluge Bing čuvaju po potrebi.   

Nastavićemo da učimo i razvijamo naš pristup u obezbeđivanju Kopilot u usluzi Bing, i kao što to radimo nastavićemo da radimo na disciplinama kako bismo uskladili svoju AI inovaciju sa ljudskim vrednostima i osnovnim pravima, uključujući zaštitu mladih korisnika i privatnosti.   

Kopilot sa komercijalnom zaštitom podataka 

Kopilot sa komercijalnom zaštitom podataka, ranije poznat kao Bing Chat Enterprise ("BCE"), objavio je Microsoft u besplatnom javnom pregledu u julu 2023. godine kao besplatan dodatak za određene M365 klijente. Kopilot sa komercijalnom zaštitom podataka je iskustvo veb pretrage poboljšano za krajnje korisnike preduzeća. 

Kao i sa Kopilotom u Bingu, kada copilot sa komercijalnom zaštitom podataka krajnji korisnik unese odziv u interfejs, odziv, trenutni razgovor, najvažniji rezultati pretrage i metaprompt se šalju kao unosi u LLM. Model generiše odgovor pomoću odziva i neposredne istorije razgovora da bi kontekstualizovao zahtev, metaprompt za usklađivanje odgovora sa Microsoft AI principima i očekivanjima korisnika, kao i rezultate pretrage na osnovu odgovora u postojećem sadržaju visokog rangiranja sa veba. Ovo funkcioniše na isti način kao i Copilot u usluzi Bing kao što je opisano iznad u ovom dokumentu, osim što Copilot sa komercijalnom zaštitom podataka oslanja se samo na trenutnu istoriju razgovora (ne nedavnu istoriju razgovora) zbog toga što uskladištena istorija ćaskanja nije trenutno podržana funkcija. Designer i vizuelne Search su sada dostupne u ovoj verziji. 

Kao i druge transformacione tehnologije, iskoristivanje pogodnosti veštačkih inteligentnih usluga nije oslobađeno na rizik, a suprotstavljeni AI program korporacije Microsoft osmišljen je da identifikuje potencijalne rizike, izmeri njihovu spremnost za njihovo pojavljivanje i izgradi umanjivanja kako bi ih rešio. Ponovo, gorenavedeni opis nastojanja korporacije Microsoft za identifikovanje, merenje i umanjivanje potencijalnih rizika za Copilot u usluzi Bing odnosi se i na ovu verziju, sa nekim pojašnjavanja o umanjivanja opisanim u nastavku: 

Faza izdavanja, kontinualna procena. Kao i sa Copilot Bingom, za Copilot sa komercijalnom zaštitom podataka takođe smo zauzili inkrementalni pristup izdavanja. 18. jula 2023. Copilot sa komercijalnom zaštitom podataka postao je dostupan kao besplatan pregled za klijente koji ispunjavaju uslove za preduzeća sa određenim M365 nalozima za uključivanje za krajnje korisnike preduzeća. Trideset (30) dana nakon što je obavestio klijente koji ispunjavaju uslove za preduzeća, Copilot sa komercijalnom zaštitom podataka postao je "podrazumevano uključen" za te iste klijente. Kopilot sa komercijalnom zaštitom podataka od tada je postao dostupan za određene obrazovne akademske radnike M365 naloge. Kopilot sa komercijalnom zaštitom podataka postao je dostupan određenim klijentima iz preduzeća 1. decembra 2023. godine. U budućnosti planiramo da proširimo pristup Kopilotu pomoću komercijalne zaštite podataka za Microsoft Entra ID korisnika.

Uslovi korišćenja i pravila ponašanja. Krajnji korisnici programa Copilot sa zaštitom komercijalnih podataka moraju da se prihvatiju uslova korišćenja krajnjih korisnika. Ovi Uslovi korišćenja obaveštavaju krajnje korisnike o pristupačnoj i nelegitimnoj upotrebi i posledicama kršenja uslova.  

Operacije i brz odgovor. Takođe koristimo Copilot u tekućim Bing procesima nadgledanja i operativnih procesa da bismo rešili kada Copilot sa komercijalnom zaštitom podataka prima signale ili prima izveštaj, što ukazuje na moguću grešku ili kršenje uslova korišćenja krajnjih korisnika. 

Povratne informacije, nadgledanje i nadzor. Kopilot sa komercijalnom zaštitom podataka koristi istu alatku kao Copilot u usluzi Bing kako bi korisnicima prosledili povratne informacije i izveštaje o problemima koje pregledaju Operativni timovi korporacije Microsoft. Kopilot u operativnim procesima usluge Bing proširio se i da bi prilagodio funkcije u okviru Copilot iskustava u vezi sa komercijalnom zaštitom podataka, na primer, ažuriranje stranice "Izveštaj za zabrinutost" tako da uključuje nove tipove sadržaja koje korisnici generišu uz pomoć modela.  

Da biste obezbedili da krajnji korisnici imaju potrebne informacije kada vrše interakciju sa Copilot-om sa komercijalnom zaštitom podataka, na dnu ovog dokumenta postoji dokumentacija proizvoda, uključujući najčešća pitanja i saznajte više. 

Odzivi i odgovori koje generišu krajnji korisnici u kopilotu sa zaštitom komercijalnih podataka obrađuju se i skladište u usklađivanju sa standardima rukovanja poslovnim podacima. Copilot sa ponudom za komercijalnu zaštitu podataka trenutno je dostupan samo poslovnim klijentima i njihovim ovlašćenim krajnjim korisnicima za odrasle, tako da ne predviđamo da će deca ili mladi u ovom trenutku biti krajnji korisnici kompanije Copilot sa komercijalnom zaštitom podataka. Pored toga, Copilot sa komercijalnom zaštitom podataka ne pruža nikakvo ponašanje ciljano oglašavanje krajnjim korisnicima. Umesto toga, svi prikazani oadћeni su samo kontekstualno relevantni o tome.  

Saznajte više

Ovaj dokument je deo šireg napora korporacije Microsoft da svoje principe vežbe iskoristi za vežbu. Da biste saznali više, pogledajte:

Pristup korporacije Microsoft odgovornom veštinom

Odgovorni VEI standard korporacije Microsoft

Odgovorni AI resursi korporacije Microsoft  

Microsoft Azure Learning kursevi o odgovornom veštačenju  

Osnovni podaci o ovom dokumentu  

© 2023 Microsoft. Sva prava zadržana. Ovaj dokument je obezbeđen "onakva koliko jeste" i samo u informativne svrhe. Informacije i prikazi izraženi u ovom dokumentu, uključujući URL i druge reference internet veb lokacije, mogu se promeniti bez obaveštenja. Vi snosite rizik da ga koristite. Neki primeri su samo za ilustraciju i fiktivni. Nijedno pravo povezivanje nije predviđeno ili zamijenjeno.  

Da li vam je potrebna dodatna pomoć?

Želite još opcija?

Istražite pogodnosti pretplate, pregledajte kurseve za obuku, saznajte kako da obezbedite uređaj i još mnogo toga.

Zajednice vam pomažu da postavljate pitanja i odgovarate na pitanja, dajete povratne informacije i čujete mišljenje od stručnjaka sa bogatim znanjem.

Da li su vam ove informacije koristile?

Koliko ste zadovoljni kvalitetom jezika?
Šta je uticalo na vaše iskustvo?
Kada kliknete na dugme Prosledi“, vaše povratne informacije će se koristiti za poboljšanje Microsoft proizvoda i usluga. Vaš IT administrator će moći da prikupi ove podatke. Izjava o privatnosti.

Hvala vam na povratnim informacijama!

×