Poslednji put ažurirano: maj 2024.

Osnove o Copilot u pretraživaču Bing  

Copilot u pretraživaču Bing je sada Microsoft Copilot. Pročitajte više o našem pristupu odgovornom AI u dokumentaciji ovde: Beleška o prozirnosti za Microsoft Copilot

Uvod  

U februaru 2023. Microsoft je pokrenuo novi Bing, iskustvo pretraživanja na vebu poboljšano. On podržava korisnike tako što rezimira rezultate veb pretrage i obezbeđuje iskustvo ćaskanja. Korisnici takođe mogu da generišu kreativni sadržaj, kao što su pesme, šale, priče i, pomoću usluge Bing Kreiranje slika, slika. Novi AI poboljšani Bing pokreće se na raznim naprednim tehnologijama korporacije Microsoft i OpenAI, uključujući GPT, model velikog jezika sa ivicom (LLM) i DALL-E, model dubokog učenja za generisanje digitalnih slika iz opisa prirodnog jezika, kako iz programa OpenAI, tako i iz usluge OpenAI. Radili smo sa oba modela mesecima pre javnog izdanja da bismo razvili prilagođeni skup mogućnosti i tehnika kako bismo se pridružili ovoj najsavršenoj AI tehnologiji i veb pretrazi u novoj usluzi Bing.  U novembru 2023. Microsoft je preimenovan u novi Bing u Copilot u pretraživaču Bing.

U korporaciji Microsoft ozbiljno shvatimo našu posvećenost odgovornom veštinom. Iskustvo Copilot u pretraživaču Bing razvijeno je u odnosu na Microsoft AI principe, Odgovorni AI standard korporacije Microsoft i u partnerstvu sa odgovornim veštacima iz čitave kompanije, uključujući Microsoft's Office of Responsible AI, naše inženjerske timove, Microsoft Research i Ether. Ovde možete da saznate više o odgovornom veštačenju korporacije Microsoft.  

U ovom dokumentu opisujemo naš pristup odgovornom AI za Copilot u pretraživaču Bing. Pre objavljivanja usvojili smo najsamerobuhvatne metode za identifikovanje, merenje i umanjivanje potencijalnih rizika i upotrebe sistema i obezbeđivanje njegovih pogodnosti za korisnike. Kako smo nastavili da razvijamo Copilot u pretraživaču Bing od prvog izdavanja, nastavili smo da učimo i poboljšavamo odgovorne napore veštačenja. Ovaj dokument će se periodično ažurirati kako bi se obaveštavali o procesima i metodama razvoja.   

Ključni termini  

Copilot u pretraživaču Bing je iskustvo pretraživanja veba poboljšano. Dok se pokreće na moćnim, novim tehnologijama, počinjemo definisanjem nekih ključnih termina.  

Modeli mašinskog učenja koji vam pomažu da sortirate podatke u označene razrede ili kategorije informacija. U Copilot u pretraživaču Bing, jedan od načina na koji koristimo klasifikatore jeste da pomognemo u otkrivanju potencijalno štetnog sadržaja koji su korisnici prosledili ili koje je generisanje sistema generisalo kako bi se umanjilo generisanje tog sadržaja i zloupotreba ili zloupotreba sistema. 

Copilot u pretraživaču Bing se u rezultatima veb pretrage kada korisnici traže informacije. To znači da centriramo odgovor koji je dat na upit korisnika ili odziv o sadržaju visokog rangiranja sa veba i obezbeđujemo veze ka veb lokacijama kako bi korisnici mogli da saznaju više. Bing rangiranje sadržaja veb pretrage znatnom težinom funkcija kao što su relevantnost, kvalitet i kredibilitet i svežina. Ove koncepte detaljnije opisujemo u članku Kako Bing isporučuje rezultate pretrage (pogledajte odeljak "Kvalitet i kredibilitet" u odeljku "Kako Bing rangiranje rezultata pretrage").   

Osnovane odgovore smatramo odgovorima iz programa Copilot u pretraživaču Bing u kojima izjave podržavaju informacije sadržane u ulaznim izvorima, kao što su rezultati veb pretrage iz upita ili upita, informacije o usluzi B baza znanja ing o potvrđenim činjenicama i, za iskustvo ćaskanja, nedavnu istoriju razgovora iz ćaskanja. Neosnovani odgovori su oni u kojima izraz nije osnovan u tim ulaznim izvorima.  

Veliki jezički modeli (LLM-ove) u ovom kontekstu su AI modeli koji su obučeni za velike količine tekstualnih podataka za predviđanje reči u nizovima. LLM-ove mogu da izvršavaju razne zadatke, kao što su generisanje teksta, rezimiranje, prevođenje, klasifikacija i još mnogo toga.  

Metaprompt je program koji služi da vodi ponašanje sistema. Delovi metaprompt pomažu u poravnanju ponašanja sistema sa Microsoft AI principima i očekivanjima korisnika. Na primer, metaprompt može da sadrži red kao što je "komunikacija u korisničkom jeziku izbora".  

Metod ili kombinacija metoda dizajniranih da umanji potencijalne rizike do kojih može doći pomoću funkcija zasnovanih na vešalima u programu Copilot u pretraživaču Bing.  

Tekst, glas, slike i/ili drugi omogućeni upiti koje korisnik šalje usluzi Bing kao unos u model koji omogućava nova generativna iskustva zasnovana na veštačkim inteligencijama u usluzi Bing. Na primer, korisnik može da doda sledeći odziv:  

"Planiram put za godišnjicu u septembru. Gde možemo da odemo, a koja su u 3-časovnom letu sa London Heathrowa?”  

Tekst koji korisnik šalje usluzi Bing sa trake za pretragu za pretragu na vebu. U ovom dokumentu razlikuje se upit (za pretragu na vebu) od upita (za generativna iskustva zasnovana na veštačkim inteligencijama u usluzi Bing). Na primer, korisnik može da uvede sledeći upit za pretraživanje veba:  

"travel destinations near London Heathrow airport"  

Tehnike koje koriste stručnjaci za procenu ograničenja i ranjivosti sistema i za testiranje efikasnosti planiranih umanjivanja. Crveno testiranje i testiranje stresa koriste se za identifikovanje potencijalnih rizika i razlikuju se od sistematskih mera rizika.   

Tekst, slika, grafikoni itd. koji Copilot u pretraživaču Bing rezultate kao odgovor na odziv. Sinonimi za "odgovor" uključuju "dovršavanje", "generaciju" i "odgovor". Na primer, Bing može da pruži sledeći odgovor na odziv koji smo koristili u definiciji upita iznad:   

"Čestitamo vam na godišnjici! Postoji mnogo mesta na koja možete da odete i koja su u 3-časovnom letu od London Heathrowa. Prema jednom izvoru, neki od vikenda beže za tri sata avionom iz Londona su Bilbao, Kopenhagen, Rejkjavik i Stokholm 1, 2. Drugi izvor predlaže neka od najboljih mesta za odlazak u Evropu u septembru su Krakov, Firenca i Lisabon 3, 4. Takođe možete da proverite direktne letove sa lokacije London Heathrow do raznih odredišta i vidite šta vam se dopalo. Nadam se da ćete se lepo prošetati!”  

Nameravane upotrebe i nova iskustva veštake  

predviđena upotreba programa Copilot u pretraživaču Bing je povezivanje korisnika sa relevantnim rezultatima pretrage, pregled rezultata sa veba radi pronalaženja i rezimiranja odgovora koje korisnici traže, pomažu korisnicima da suže istraživanje kako bi dobili odgovore pomoću iskustva ćaskanja i podstaknu kreativnost tako što pomažu korisnicima da kreiraju sadržaj. Copilot u pretraživaču Bing dolenavedenih generativnih AI doživljaja podržavaju cilj da bude kopilot sa veštaskom inteligencom za veb.  

Rezimiranje. Kada korisnici proslede upit za pretragu na Copilot u pretraživaču Bing, Bing sistem obrađuje upit, izvršava neke veb pretrage i koristi najvažnije rezultate veb pretrage za generisanje rezimea informacija za predstavljanje korisnicima. Ti rezimei uključuju reference koje pomažu korisnicima da vide rezultate pretrage i da im lako pristupe koji se koriste da bi se rezime osnovao. Rezimei se mogu pojaviti na desnoj strani stranice sa rezultatima pretrage i u okviru iskustva ćaskanja.  

Iskustvo ćaskanja. Pored rezimiranja, korisnici mogu da ćaskaju sa Copilot u pretraživaču Bing putem teksta, slike ili glasovnog unosa, postavljaju dodatna pitanja da bi pojasnili pretrage i pronašli nove informacije i prosledili upite za generisanje kreativnog sadržaja. Reference su takođe uključene u iskustvo ćaskanja kada Copilot u pretraživaču Bing rezimira rezultate pretrage u odgovoru.   

Generisanje kreativnog sadržaja. U iskustvu ćaskanja i na stranici za pretragu korisnici mogu da kreiraju pesme, šale, priče, slike i drugi sadržaj uz pomoć od Copilot u pretraživaču Bing.  Slike kreira Designer (bivši Bing Kreiranje slika) i korisnici mogu da pristupe funkciji putem Designer, kao i na kopilot stranici. 

Kako Copilot u pretraživaču Bing funkcioniše?  

Pomoću Copilot u pretraživaču Bing, razvili smo inovativni pristup za unošenje najboljih LLM-ova u veb pretragu. Kada korisnik unese odziv u programu Copilot u pretraživaču Bing, odziv, nedavna istorija razgovora, metaprompt i najvažniji rezultati pretrage šalju se kao unosi u LLM. Model generiše odgovor pomoću odziva korisnika i nedavne istorije razgovora da bi kontekstualizovao zahtev, metaprompt za usklađivanje odgovora sa Microsoft AI principima i očekivanjima korisnika, kao i rezultate pretrage na osnovu odgovora u postojećem sadržaju visokog rangiranja sa veba.   

Odgovori se prikazuju korisnicima u nekoliko različitih formata, kao što su tradicionalne veze ka veb sadržaju, rezimei, slike i odgovori na ćaskanje koje je generisala AI. Rezimei i odgovori na ćaskanje koji se oslanjaju na rezultate pretrage na vebu sadržaće reference i odeljak "Saznajte više" ispod odgovora, sa vezama ka rezultatima pretrage koji su korišćeni za osnovano odziv. Korisnici mogu da kliknu na ove veze da bi saznali više o temi i informacijama koje se koriste za sažeti rezime ili odgovor na ćaskanje.    

U iskustvu sa Kopilotom korisnici mogu da vrše pretrage na vebu razgovorom tako što će dodati kontekst u odziv i vršiti interakciju sa odgovorima sistema kako bi dodatno naveli interesovanja za pretragu. Na primer, korisnik može da postavi dodatna pitanja, zatraži dodatna pojašnjavanja informacija ili da odgovori sistemu na razgovor. U iskustvu ćaskanja korisnici takođe mogu da izaberu odgovor iz unapred napisanih predloga, koje nazivamo predlozima za ćaskanje. Ova dugmad se pojavljuju posle svakog odgovora od Copilot-a i pružaju predložene odzive za nastavak razgovora u okviru iskustva ćaskanja. Predlozi ćaskanja se takođe pojavljuju zajedno sa rezimiranim sadržajem na stranici rezultata pretrage kao ulazna tačka za iskustvo ćaskanja.  

Copilot u pretraživaču Bing takođe omogućava korisniku da kreira priče, pesme, tekstove pesama i slike uz pomoć usluge Bing. Kada Copilot u pretraživaču Bing otkrije korisničku nameri da generiše kreativni sadržaj (na primer, odziv počinje sa "napiši mi..."), sistem će, u većini slučajeva, reaktivno generisati sadržaj na odziv korisnika. Slično tome, Copilot u pretraživaču Bing otkrije korisničku nameri da generiše sliku (na primer, odziv počinje sa "nacrtaj mi ..."), sistem će, u većini slučajeva, generisati sliku koja se odaziva na odziv korisnika. U iskustvu vizuelne pretrage u ćaskanju, sa slikom koju je uhvatila kamera korisnika, otpremljen sa uređaja korisnika ili povezana sa vebom, korisnici mogu zatražiti od Copilot u pretraživaču Bing da razumeju kontekst, tumačenje i odgovore na pitanja o slici.  Korisnici takođe mogu da otpreme svoje datoteke u Copilot da bi tumačili, konvertovali, obrađili ili izračunali informacije iz njih. U iskustvu Microsoft Designer korisnici mogu da pristupe putem programa Copilot u pretraživaču Bing, korisnici ne mogu samo da generišu slike pomoću odziva, već i da im promene veličinu ili ponovo rasporede, kao i da uređuju pozadinu kao što je zamagljanje pozadine ili da boje budu živopisnije. 

Korisnici koji imaju Microsoft naloge (MSA) sada imaju i opciju da se pretplate na Copilot Pro koji nudi poboljšano iskustvo, uključujući ubrzane performanse i brže pravljenje AI slike. Copilot Pro je trenutno dostupna u ograničenim zemljama i planiramo da Copilot Pro uskoro dostupne na više tržišta.

Da biste saznali više Copilot Pro, posetite ovde.

Copilot u pretraživaču Bing nastoji da pruži različite i sveobuhvatne rezultate pretrage svojom obavezom da oslobodi i otvori pristup informacijama. Istovremeno, napori na kvalitetu proizvoda uključuju rad na izbegavanju nenamernog promovisanja potencijalno štetnog sadržaja korisnicima. Više informacija o tome kako Bing rangiranje sadržaja, uključujući način na koji definiše relevantnost i kvalitet i kredibilitet veb stranice, dostupno je u odeljku "Bing Webmaster Vodiči".   Više informacija o principima moderacije sadržaja usluge Bing dostupno je u odeljku "Kako Bing isporučuje rezultate pretrage".   

U Copilot u sistemu Windows, Copilot u pretraživaču Bing da radi sa operativnim sistemom Windows kako bi pružio veštine specifične za Windows, kao što su promena teme ili pozadine korisnika i promena postavki kao što su zvuk, Bluetooth i umrežavanje. Ova iskustva omogućavaju korisniku da konfiguriše postavke i poboljša korisničko iskustvo koristeći odzive prirodnog jezika za LLM. Funkcionalnost specifična za aplikaciju može da se obezbedi i iz dodatnih komponenti aplikacije nezavisnih proizvođača. To može automatizovati zadatke koji se ponavljaju i postići veću korisničku efikasnost. Zbog toga što LLM-i povremeno mogu da pogreše, pružaju se odgovarajući odzivi za potvrdu korisnika tako da je korisnik poslednji arbitar promena koje se mogu izvršiti. 

Identifikovanje, merenje i umanjivanje rizika  

Kao i druge transformacione tehnologije, iskoristivanje pogodnosti veštačkih inteligentnih usluga nije oslobađeno na rizik, a suprotstavljeni AI program korporacije Microsoft osmišljen je da identifikuje potencijalne rizike, izmeri njihovu spremnost za njihovo pojavljivanje i izgradi umanjivanja kako bi ih rešio. Vođeni našim AI principima i odgovornim veštačkim standardom, trudili smo se da identifikujemo, izmerimo i umanjimo potencijalne rizike i Copilot u pretraživaču Bing, a da istovremeno obezbedimo transformativnu i korisnu upotrebu koju pruža novo iskustvo. U odeljcima ispod opisujemo svoj iterativni pristup identifikovanje, merenje i umanjivanje potencijalnih rizika.   

Na nivou modela, rad je počeo istraživanjem GPT-4 krajem leta 2022. To je obuhvaćeno sprovođenjem obimnog crvenog testiranja tima u saradnji sa openAI. Testiranje je dizajnirano da proceni kako će najnovija tehnologija funkcionisati bez ikakve dodatne zaštite na nju. Naša namera u ovom trenutku bila je da proizvedemo štetne odgovore, otkrijemo potencijalne avenije za lažnu upotrebu i identifikujemo mogućnosti i ograničenja. Naša kombinovana učenja širom programa OpenAI i Microsoft doprinela su napretku u razvoju modela i, za nas u korporaciji Microsoft, obavestili nas o rizicima i doprineli strategijama ranog umanjivanja za Copilot u usluzi Bing.  

Pored testiranja crvenog tima na nivou modela, multidisciplinarni tim stručnjaka vodio je brojne runde testiranja crvenog tima na nivou aplikacije na Copilot u pretraživaču Bing AI iskustvima pre nego što ih učini javno dostupnim u ograničenom pregledu izdanja. Ovaj proces nam je pomogao da bolje razumemo kako sistem mogu da iskoriste protivnički akteri i da poboljšamo naša umanjivanja. Nenadverzivni testovi za stres takođe obimno procenjuju nove Bing funkcije za nedostatke i ranjivosti. Posle izdanja, nova AI iskustva u usluzi Bing integrisana su u postojeću meru proizvodnje i infrastrukturu testiranja Bing inženjeringa. Na primer, crveni testirači tima iz različitih regiona i pozadina neprekidno i sistematski pokušavaju da ugroze sistem, a njihovi rezultati se koriste za razvijanje skupova podataka koje Bing koristi za poboljšanje sistema.  

Crveno testiranje tima i testiranje stresa mogu da nastanu instance određenih rizika, ali će u proizvodnji korisnici imati milione različitih vrsta razgovora sa Copilot u pretraživaču Bing. Štaviše, razgovori su višestruki preobraćaj i kontekstualni, a identifikovanje štetnog sadržaja u okviru razgovora je složen zadatak. Da bismo bolje razumeli i rešili potencijal za rizike u Copilot u pretraživaču Bing AI iskustvima, razvili smo dodatnu odgovornu AI metriku specifičnu za ta nova AI iskustva za merenje potencijalnih rizika kao što su zatvoreni prelomi, štetni sadržaj i neosnivan sadržaj. Takođe smo omogućili mere u skali kroz delimično automatizovane kanale mera. Svaki put kada se proizvod promeni, ažuriraju se postojeća umanjivanja ili se predlažu nova umanjivanja, ažuriramo kanale mera da bismo procenili performanse proizvoda i odgovornu AI metriku.  

Kao ilustrativni primer, ažurirani delimično automatizovani kanal mera za štetni sadržaj uključuje dve glavne inovacije: simuliranje razgovora i automatizovanu belešku razgovora verifikovanu od ljudi. Najpre, odgovorni veštaci za AI napravili su predloške za hvatanje strukture i sadržaja razgovora koji mogu da dovesti do različitih tipova štetnog sadržaja. Ovi predlošci su zatim data agentu za razgovore koji je vršio interakciju kao hipotetički korisnik sa Copilot u pretraživaču Bing koji generiše simulirane razgovore. Da bismo utvrdili da li ti simulirani razgovori sadrže štetan sadržaj, preduzeli smo uputstva koja obično koriste stručni lingvisti da bi označili podatke i izmenili ih za korišćenje pomoću programa GPT-4 za označavanje razgovora na skali, precizirajući smernice dok nije došlo do značajnog dogovora između razgovora označenih modelom i razgovora označenih sa ljudima. Na kraju smo koristili razgovore označene modelom za izračunavanje odgovorne AI metrike koja beleži efikasnost Copilot u pretraživaču Bing u umanjivanju štetnog sadržaja.   

Naši merni kanali nam omogućavaju da brzo izvršimo merenje potencijalnih rizika na nivou. Kako tokom perioda pregleda i trenutnog testiranja crvenog tima identifikujemo nove probleme, nastavljamo da širimo skupove mera kako bismo procenili dodatne rizike.  

Dok smo identifikovali potencijalne rizike i greške tokom procesa kao što su testiranje crvenog tima i testiranje stresa i merili ih inovativnim pristupima opisanim iznad, razvili smo dodatna umanjivanja za one koji se koriste za tradicionalnu pretragu. U nastavku opisujemo neke od tih umanjivanja. Nastavićemo da nadgledamo iskustva Copilot u pretraživaču Bing veštačenja kako bismo poboljšali performanse i umanjivanja proizvoda.  

Faza izdavanja, kontinualna procena. Posvećeni smo učenju i poboljšanju našeg odgovornog AI pristupa neprekidno dok se razvijaju naše tehnologije i ponašanje korisnika. Naša strategija postečenog izdanja je bila osnovna stavka načina na koji bezbedno premeštamo tehnologiju iz laboratorija u svet, i posvećeni smo namernom, promišljanom procesu obezbeđivanja prednosti Copilot u pretraživaču Bing. Ograničavanje broja osoba sa pristupom tokom perioda pregleda omogućilo nam je da otkrijemo kako ljudi koriste Copilot u pretraživaču Bing, uključujući način na koji ljudi mogu da ga pogrešno koriste, tako da možemo pokušati da umanjimo pojavljivanje problema pre šireg izdanja. Na primer, zahtevamo od korisnika da potvrde identitet pomoću Microsoft naloga pre pristupa potpuno novom Bing iskustvu. Neovlašćeni korisnici mogu da pristupe samo ograničenom pregledu iskustva. Ovi koraci oduzimaju zloupotrebu i pomažu nam da (po potrebi) preduzmemo odgovarajuću radnju kao odgovor na kršenja Pravila ponašanja.  Svakodnevno vršimo promene na Copilot u pretraživaču Bing da bismo poboljšali performanse proizvoda, poboljšali postojeća umanjivanja i primenili nova umanjivanja kao odgovor na naša učenja tokom perioda pregleda.  

Osnova rezultata pretrage. Kao što je navedeno iznad, Copilot u pretraživaču Bing je dizajniran da pruži odgovore koje podržavaju informacije u rezultatima veb pretrage kada korisnici traže informacije. Na primer, sistemu se obezbeđuje tekst iz najvažnijih rezultata pretrage i uputstva putem metaprompt-a da bi se odredio njegov odgovor. Međutim, pri rezimiranju sadržaja sa veba, Copilot u pretraživaču Bing da uključi informacije u odgovoru koje nisu prisutne u ulaznim izvorima. Drugim rečima, to može dati neosnivane rezultate. Rane procene ukazuju na to da neosporni rezultati u ćaskanju mogu biti raspodeljljivije za određene tipove odziva ili tema od drugih, kao što su traženje matematičkih izračunavanja, finansijskih informacija ili informacija o tržištu (na primer, zarada preduzeća, podaci o performansama deonica) i informacije kao što su precizni datumi događaja ili određene cene stavki. Korisnici uvek treba da budu oprezni i da koriste najbolju procenu prilikom prikazivanja rezimiranih rezultata pretrage, bilo na stranici sa rezultatima pretrage ili u iskustvu ćaskanja. Preduzeli smo nekoliko mera da bismo umanjili rizik da korisnici mogu da se oslanjaju na neosnovni generisani sadržaj u scenarijima rezimiranja i iskustvima ćaskanja. Na primer, odgovori u programu Copilot u pretraživaču Bing zasnovani na rezultatima pretrage uključuju reference na izvorne veb lokacije za korisnike da bi verifikovali odgovor i saznali više. Korisnici dobijaju i eksplicitno obaveštenje da vrše interakciju sa AI sistemom i savetujemo da provere izvorne materijale rezultata na vebu kako bi im pomogli da koriste najbolje rasuđivanje.  

Klasifikatori zasnovani na veštacima i metapromovanje radi umanjivanja potencijalnih rizika ili pogrešnog iskorišćavanja. Upotreba LLM-a može da proizvede problematičan sadržaj koji može dovesti do rizika ili pogrešnog korišćenja. Primeri mogu da uključuju izlaz koji se odnosi na samokodite, nasilje, grafički sadržaj, intelektualnu svojine, netačne informacije, govor mržnje ili tekst koji može da se odnosi na nezakonite aktivnosti. Klasifikatori i metaprompiranje su dva primera umanjivanja koja su primenjena u sistemu Copilot u pretraživaču Bing kako bi se smanjio rizik od ovih tipova sadržaja. Klasifikatori klasifikuju tekst tako da označava zastavicom različite tipove potencijalno štetnog sadržaja u upitima za pretragu, upitima za ćaskanje ili generisanim odgovorima. Bing koristi klasifikatore zasnovane na AI-u i filtere sadržaja, koji se primenjuju na sve rezultate pretrage i relevantne funkcije; dizajnirali smo dodatne klasifikatore odziva i filtere sadržaja posebno da bismo rešili moguće rizike koje Copilot u pretraživaču Bing funkcijama. Zastavice dovode do potencijalnih umanjivanja, kao što je ne vraćanje generisanog sadržaja korisniku, preusmeravanje korisnika na drugu temu ili preusmeravanje korisnika na tradicionalnu pretragu. Metaprompiranje uključuje davanje uputstava za model kako bi se vodilo njegovo ponašanje, uključujući kako bi se sistem ponašao u skladu sa AI principima korporacije Microsoft i očekivanjima korisnika. Na primer, metaprompt može da sadrži red kao što je "komunikacija u korisničkom jeziku izbora".   

Zaštita privatnosti u vizuelnoj pretrazi u Copilot u pretraživaču Bing. Kada korisnici otpreme sliku kao deo odziva za ćaskanje, Copilot u pretraživaču Bing će koristiti tehnologiju zamućenja lica pre slanja slike UI model. Zamagljene očiju koriste se za zaštitu privatnosti pojedinaca na slici. Tehnologija zamagljenja lica oslanja se na kontekstne tragove kako bi utvrdila gde treba zamućiti i pokušati da zamuti sva lica. Kada su lica zamućena, AI model može da uporedi ulaznu sliku sa slikama koje su javno dostupne na internetu. Kao rezultat toga, Copilot u pretraživaču Bing će možda moći da identifikuje poznatog košarkaša sa fotografije tog igrača na košarkaškom terenu tako što će napraviti numerički prikaz koji odražava broj dresa igrača, boju dresa, prisustvo košarkaškog košarkaškog košarkaša itd. Copilot u pretraživaču Bing ne skladišti numeričke prikaze osoba iz otpremljenih slika i ne deli ih sa trećim licima. Copilot u pretraživaču Bing koristi numeričke prikaze slika koje korisnici otpremaju samo da bi odgovorili na odzive korisnika, a zatim se brišu u roku od 30 dana nakon završetaka ćaskanja.    

Ako korisnik zatraži informacije Copilot u pretraživaču Bing o otpremljenoj slici, odgovori na ćaskanje mogu da odražavaju uticaj zamagljenih lica na mogućnost modela da pruži informacije o otpremljenoj slici. Na primer, Copilot u pretraživaču Bing može da opiše nekoga kao da ima zamućeno lice.    

Ograničavanje lutanja razgovora. Tokom perioda pregleda saznali smo da veoma duge sesije ćaskanja mogu dovesti do odgovora koji se ponavljaju, nisu od pomoći ili su nedosledni Copilot u pretraživaču Bing predviđenom tonu. Da bismo rešili ovaj problem tokom razgovora, ograničili smo broj zamena (razmena koje sadrže i pitanje korisnika i odgovor od strane Copilot u pretraživaču Bing) po sesiji ćaskanja. Nastavljamo da procenjujemo dodatne pristupe za umanjivanje ovog problema.  

Obogaćivanje odziva. U nekim slučajevima, odziv korisnika može biti nejasan. Kada se to dogodi, Copilot u pretraživaču Bing koristiti LLM da bi izradio više detalja u odzivu kako bi obezbedio da korisnici dobiju odgovor koji traže. Takvo obogaćivanje odziva ne oslanja se na bilo koje znanje korisnika ili njihovih prethodnih pretraga, već umesto na vešti model. Ti korigoovani upiti će biti vidljivi u istoriji ćaskanja korisnika i, kao i druge pretrage, mogu da se izbrišu pomoću kontrola u proizvodu.  

Intervencije dizajna i korisničkog iskustva centriranog korisnika. Dizajn i korisnička iskustva zasnovana na korisnicima su suštinski aspekt pristupa korporacije Microsoft odgovornom veštačenju. Cilj je koren dizajna proizvoda u potrebama i očekivanjima korisnika. Kako korisnici prvi put komuniciraju sa programom Copilot u pretraživaču Bing, nudimo različite tačke osetljive na dodir dizajnirane da im pomognemo da razumeju mogućnosti sistema, otkrivamo im da Copilot u pretraživaču Bing tehnologijom AI i obaveštavamo o ograničenjima. Iskustvo je osmišljeno na ovaj način da pomogne korisnicima da na najbolji način Copilot u pretraživaču Bing i umanjili rizik od preterane pouzdanost. Elementi iskustva takođe pomažu korisnicima da bolje razumeju Copilot u pretraživaču Bing i njihovu interakciju sa njim. To uključuje predloge ćaskanja specifične za odgovornog AI (na primer, kako Bing koristi AI? Zašto neće Copilot u pretraživaču Bing na neke teme?), objašnjenja ograničenja, načini na koje korisnici mogu da saznaju više o tome kako sistem radi i prijave povratne informacije, kao i reference koje se mogu lako kretati kroz odgovore da bi korisnicima prikazali rezultate i stranice na kojima se odgovori zasnivaju.  

Otkrivanje veжih informacija. Copilot u pretraživaču Bing pruža nekoliko tačaka osetljivih na dodir za smisleno AI otkrivanje gde se korisnicima pruža obaveštenje da vrše interakciju sa AI sistemom, kao i mogućnostima da saznaju više o Copilot u pretraživaču Bing. Osnaživanje korisnika sa ovim znanjem može da im pomogne da izbegnu prenasebnu upotrebu veštačenja i saznaju o jačinama i ograničenjima sistema.  

Medijska dokaza.Microsoft Designer je omogućio funkciju "Akreditivi sadržaja" koja koristi kriptografske metode za označavanje izvora ili "dokazivanje" svih AI generisanih slika kreiranih na Designer. Nevidljiva funkcija digitalnog vodenog žiga prikazuje izvor, vreme i datum originalne kreacije i te informacije se ne mogu menjati. Tehnologija koristi standarde koje je postavila Koalicija za sadržaj i autentičnost (C2PA) da bi dodala još jedan sloj poverenja i transparentnosti za slike koje generiše verodostojnost. Microsoft je suosnivač C2PA i doprineo je osnovnoj tehnologiji dokazivanja digitalnog sadržaja. 

Uslovi korišćenja i pravila ponašanja. Ovaj resurs reguliљe upotrebu Copilot-a u usluzi Bing. Korisnici bi trebalo da se pri prihvatljive upotrebe i pravila ponašanja , koji ih, između ostalog, obaveštavaju o neprihvatljivoj i neprihvatljivoj upotrebi i posledicama kršenja uslova. Uslovi korišćenja takođe pružaju dodatna otkrivanja za korisnike i služi kao korisna referenca za korisnike da saznaju Copilot u pretraživaču Bing.   

Operacije i brz odgovor. Takođe koristimo Copilot u pretraživaču Bing tekuće nadgledanje i operativne procese programa Copilot u pretraživaču Bing za rešavanje problema kada Copilot u pretraživaču Bing prima signale ili prima izveštaj, što ukazuje na moguću grešku ili kršenje Uslova korišćenja ili kodeka ponašanja.  

Povratne informacije, nadgledanje i nadzor. Iskustvo Copilot u pretraživaču Bing se na osnovu postojeće alatke koja omogućava korisnicima da proslede povratne informacije i prijavljene zabrinutosti, koje pregledaju operativni timovi korporacije Microsoft. Operativni procesi usluge Bing razvili su se i da bi prilagodili funkcije u okviru programa Copilot u pretraživaču Bing, na primer, ažuriranje stranice "Izveštaj na zabrinutost" tako da uključuje nove tipove sadržaja koje korisnici generišu uz pomoć modela.   

Naš pristup identifikovanju, merenju i umanjivanju rizika nastaviće da se razvija dok saznajemo više i već pravimo poboljšanja na osnovu povratnih informacija prikupljenih tokom perioda pregleda.     

Automatizovano otkrivanje sadržaja. Kada korisnici otpremaju slike kao deo odziva za ćaskanje, Copilot u pretraživaču Bing primenjuje alatke za otkrivanje seksualne iskorišćavanja i zloupotrebe dece (CSEAI), prevaspoznatke PhotoDNA heš tehnologije koja se podudara. Microsoft je razvio PhotoDNA da bi pomogao u pronalaženju duplikata poznatih CSEAI datoteka. Microsoft izveštava sve prividne CSEAI Nacionalnom centru za nestalu i eksploatisanu decu (NCMEC), kao što to zahteva američki zakon. Kada korisnici otpreme datoteke da bi ih analizirali ili obradili, Copilot primenjuje automatizovano skeniranje kako bi otkrio sadržaj koji može dovesti do rizika ili pogrešnog korišćenja, kao što je tekst koji se može povezan sa nelegalnim aktivnostima ili zlonamernim kodom.

Zaštita privatnosti  

Dugotrajno uverenje da je privatnost osnovno ljudsko pravo informisano je o svakom stadijumu razvoja i primene Copilot u pretraživaču Bing korporacije Microsoft. Naše obaveze u zaštiti privatnosti svih korisnika, uključujući obezbeđivanje transparentnosti i kontrole nad njihovim podacima i integrisanjem privatnosti dizajnom kroz umanjivanje podataka i ograničenje namena, od temelja su Copilot u pretraživaču Bing. Dok razvijamo naš pristup pružanju generativnih AI iskustava Copilot u pretraživaču Bing, neprestano ćemo istražujemo kako je najbolje zaštititi privatnost. Ovaj dokument će se ažurirati kao i mi. Više informacija o tome kako Microsoft štiti privatnost naših korisnika dostupno je u Microsoft izjavi o privatnosti.  

U Copilot u sistemu Windows, Windows veštine mogu, u sklopu njihove funkcionalnosti, deliti informacije o korisnicima sa razgovorom ćaskanja. To podleže odobravanju korisnika i odzivi korisničkog interfejsa se prikazuju da bi se potvrdila korisnička namera pre deleđivanje korisničkih informacija sa razgovorom putem ćaskanja.

Microsoft i dalje razmatra potrebe dece i mladih ljudi kao deo procene rizika za nove generativne funkcije AI u Copilot u pretraživaču Bing. Svi Microsoft nalozi za dete koji identifikuju korisnika kao mlađe od 13 godina ili kao što je drugačije navedeno u lokalnim zakonima ne mogu da se prijave da bi pristupili potpuno novom Bing iskustvu.   

Kao što je opisano iznad, za sve korisnike smo primenili mere zaštite koje umanjivanje potencijalno štetnog sadržaja. U Copilot u pretraživaču Bing, rezultati se postavljaju kao u Striktnom režimu Bing bezbedne pretrage, koji ima najviši nivo zaštite bezbednosti u glavnoj Bing pretrazi, čime se sprečava da korisnici, uključujući tinejdžere, budu izloženi potencijalno štetnom sadržaju. Pored informacija koje smo pružili u ovom dokumentu i u našim najčešćim pitanjima o funkcijama ćaskanja, više informacija o tome kako Copilot u pretraživaču Bing funkcioniše da se izbegne odgovaranje sa neočekivanim uvredljivim sadržajem u rezultatima pretrage dostupno je ovde.  

Microsoft se obavezao da neće isporučiti personalizovano oglašavanje na osnovu ponašanja na mreži deci čiji datum rođenja u microsoft nalogu ih identifikuje kao mlađe od 18 godina. Ova važna zaštita će se proširiti na ojače u Copilot u pretraživaču Bing funkcijama. Korisnici mogu da vide kontekstualne oglase zasnovane na upitu ili odzivu koji se koristi za interakciju sa uslugom Bing.  

Da bismo otključali transformativni potencijal generativnog AI-ja, moramo izgraditi poverenje u tehnologiji kroz osnaživanje pojedinaca da razumeju kako se njihovi podaci koriste i pružaju im smislene izbore i kontrole nad podacima. Copilot u pretraživaču Bing je osmišljena za određivanje prioriteta agencije za ljudske resurse putem pružanja informacija o tome kako proizvod funkcioniše, kao i svojih ograničenja, i kroz proširenje moćnih izbora i kontrola potrošača Copilot u pretraživaču Bing funkcijama.   

Microsoft izjava o privatnosti pruža informacije o našim transparentnim praksama privatnosti za zaštitu naših klijenata i pruža informacije o kontrolama koje našim korisnicima daju mogućnost da prikažu svoje lične podatke i upravljaju im. Da bismo obezbedili da korisnici imaju potrebne informacije kada vrše interakciju sa novim funkcijama za razgovor u usluzi Bing, otkrivanja u okviru proizvoda obaveštavaju korisnike da se bave AI proizvodom, a mi pružamo veze ka dodatnim najčešćim pitanjima i objašnjenju o tome kako ove funkcije rade. Microsoft će nastaviti da sluša povratne informacije korisnika i po potrebi će dodati detaljnije detalje o funkcijama razgovora u usluzi Bing kako bi podržao razumevanje načina na koji proizvod funkcioniše.   

Microsoft korisnicima pruža i moćne alatke za vežbanje njihovih prava nad ličnim podacima. Za podatke koje prikuplja Copilot u pretraživaču Bing, uključujući putem korisničkih upita i odziva, Microsoft kontrolna tabla za privatnost pruža autorizovanim (prijavljenim) korisnicima alatke za korišćenje prava na temu podataka, uključujući tako što korisnicima pruža mogućnost da prikažu, izvezu i izbrišu uskladištenu istoriju razgovora. Microsoft nastavlja da prima povratne informacije o tome kako želi da upravlja svojim novim Bing iskustvom, uključujući korišćenje iskustava u kontekstu upravljanja podacima.   

Copilot u pretraživaču Bing poštuje i zahteve pod evropskim pravom da budu zaboravljeni, prateći proces koji je Microsoft razvio i suzio u skladu sa tradicionalnom funkcionalnošću pretrage usluge Bing. Svi korisnici mogu prijaviti zabrinutost u vezi sa generisanim sadržajem i odgovorima ovde, a naši evropski korisnici mogu da koriste ovaj obrazac za prosleđivanje zahteva za blokiranje rezultata pretrage u Evropi pod pravima da se zaborave.    

Copilot u pretraživaču Bing će poštovati izbore privatnosti korisnika, uključujući one koje su ranije napravljene u usluzi Bing, kao što je pristanak za prikupljanje podataka i korišćenje koje se zahteva putem banera kolačića i kontrola dostupnih na Microsoft kontrolnoj tabli za privatnost. Da bismo omogućili autonomiju korisnika i agenciju prilikom donošenja informisanih odluka, koristili smo naš unutrašnji proces redigovanja da bismo pažljivo ispitali kako se izbori predstavljaju korisnicima. 

Pored kontrola dostupnih putem Microsoft kontrolne table za privatnost, koje korisnicima omogućavaju da prikazuju, izvoze i brišu istoriju pretrage, uključujući komponente istorije ćaskanja, autorizovani korisnici koji su omogućili funkciju istorije ćaskanja u proizvodu imaju mogućnost da prikazuju, pristupe istoriji ćaskanja i preuzimaju je putem kontrola u proizvodu. Korisnici mogu da obriše određena ćaskanja iz istorije ćaskanja ili da u potpunosti isključe funkcionalnost istorije ćaskanja u bilo kom trenutku tako što će posetiti stranicu sa postavkama usluge Bing. Korisnici takođe mogu da odaberu da li da dozvole personalizaciju da pristupe prilagođenijim iskustvima sa personalizovanim odgovorima. Korisnici mogu da daju saglasnosti i odbiju saglasnosti za personalizaciju u bilo kom trenutku u postavkama ćaskanja na stranici "Bing postavke".  Brisanje određenih ćaskanja iz istorije ćaskanja sprečava da se koriste za personalizaciju.    Više informacija o istoriji ćaskanja i personalizovanju obezbeđuje se korisnicima u Copilot u pretraživaču Bing najčešća pitanja

Copilot u pretraživaču Bing na umu su napravljeni tako da se lični podaci prikupljaju i koriste samo po potrebi i ne zadržavaju više nego što je neophodno. Kao što je pomenuto iznad, Vizuelna pretraga u programu Copilot u pretraživaču Bing primenjuje mehanizam koji zamagljuje lica na slikama u vreme otpremanja od strane korisnika, tako da se slike lica ne bi dalje obrađivale ili skladištili. Više informacija o ličnim podacima koje Bing prikuplja, kako se koristi i kako se skladišti i briše dostupno je u Microsoft izjavi o privatnosti, koja pruža i informacije o novim funkcijama ćaskanja u usluzi Bing.   

Copilot u usluzi Bing ima smernice za zadržavanje i brisanje podataka kako bi obezbedio da se lični podaci prikupljeni putem funkcija ćaskanja putem usluge Bing čuvaju po potrebi.   

Nastavićemo da učimo i razvijamo naš pristup u obezbeđivanju Copilot u pretraživaču Bing, i kao što to radimo nastavićemo da radimo na disciplinama kako bismo uskladili AI inovaciju sa ljudskim vrednostima i osnovnim pravima, uključujući zaštitu mladih korisnika i privatnosti.   

Kopilot sa komercijalnom zaštitom podataka 

Kopilot sa komercijalnom zaštitom podataka, ranije poznat kao Bing Chat Enterprise ("BCE"), objavio je Microsoft u besplatnom javnom pregledu u julu 2023. godine kao besplatan dodatak za određene M365 klijente. Kopilot sa komercijalnom zaštitom podataka je iskustvo veb pretrage poboljšano za krajnje korisnike preduzeća. 

Kao i Copilot u pretraživaču Bing, kada copilot sa komercijalnom zaštitom podataka krajnji korisnik unese odziv u interfejs, odziv, trenutni razgovor, najvažniji rezultati pretrage i metaprompt se šalju kao unosi u LLM. Model generiše odgovor pomoću odziva i neposredne istorije razgovora da bi kontekstualizovao zahtev, metaprompt za usklađivanje odgovora sa Microsoft AI principima i očekivanjima korisnika, kao i rezultate pretrage na osnovu odgovora u postojećem sadržaju visokog rangiranja sa veba. Ovo funkcioniše na isti način kao i Copilot u usluzi Bing kao što je opisano iznad u ovom dokumentu, osim što Copilot sa komercijalnom zaštitom podataka oslanja se samo na trenutnu istoriju razgovora (ne nedavnu istoriju razgovora) zbog toga što uskladištena istorija ćaskanja nije trenutno podržana funkcija. Designer i Vizuelna pretraga su sada dostupne u ovoj verziji. 

Kao i druge transformacione tehnologije, iskoristivanje pogodnosti veštačkih inteligentnih usluga nije oslobađeno na rizik, a suprotstavljeni AI program korporacije Microsoft osmišljen je da identifikuje potencijalne rizike, izmeri njihovu spremnost za njihovo pojavljivanje i izgradi umanjivanja kako bi ih rešio. Ponovo, gorenavedeni opis nastojanja korporacije Microsoft za identifikovanje, merenje i umanjivanje potencijalnih rizika za Copilot u pretraživaču Bing odnosi se i na ovu verziju, sa nekim pojašnjavanja o umanjivanja opisanim u nastavku: 

Faza izdavanja, kontinualna procena. Kao i sa Copilot Bingom, za Copilot sa komercijalnom zaštitom podataka takođe smo zauzili inkrementalni pristup izdavanja. 18. jula 2023. Copilot sa komercijalnom zaštitom podataka postao je dostupan kao besplatan pregled za klijente koji ispunjavaju uslove za preduzeća sa određenim M365 nalozima za uključivanje za krajnje korisnike preduzeća. Trideset (30) dana nakon što je obavestio klijente koji ispunjavaju uslove za preduzeća, Copilot sa komercijalnom zaštitom podataka postao je "podrazumevano uključen" za te iste klijente. Kopilot sa komercijalnom zaštitom podataka od tada je postao dostupan za određene obrazovne akademske radnike M365 naloge. Kopilot sa komercijalnom zaštitom podataka postao je dostupan određenim klijentima iz preduzeća 1. decembra 2023. godine. U budućnosti planiramo da proširimo pristup Kopilotu pomoću komercijalne zaštite podataka za Microsoft Entra ID korisnika.

Uslovi korišćenja i pravila ponašanja. Krajnji korisnici programa Copilot sa zaštitom komercijalnih podataka moraju da se prihvatiju uslova korišćenja krajnjih korisnika. Ovi Uslovi korišćenja obaveštavaju krajnje korisnike o pristupačnoj i nelegitimnoj upotrebi i posledicama kršenja uslova.  

Operacije i brz odgovor. Takođe koristimo Copilot u pretraživaču Bing tekuće nadgledanje i operativne procese programa Copilot u pretraživaču Bing za rešavanje problema kada Kopilot sa komercijalnom zaštitom podataka prima signale ili prima izveštaj koji ukazuje na moguću grešku ili kršenja uslova korišćenja krajnjeg korisnika. 

Povratne informacije, nadgledanje i nadzor. Kopilot sa komercijalnom zaštitom podataka koristi istu alatku kao i Copilot u pretraživaču Bing za korisnike da proslede povratne informacije i izveštaje o problemima koje pregledaju operativni timovi korporacije Microsoft. operativni procesi Copilot u pretraživaču Bing razvili su se i da bi se prilagodili funkcijama u okviru Copilot-a sa iskustvima u vezi sa komercijalnom zaštitom podataka, na primer, ažuriranje stranice "Izveštaj za zabrinutost" tako da uključuje nove tipove sadržaja koje korisnici generišu uz pomoć modela.  

Da biste obezbedili da krajnji korisnici imaju potrebne informacije kada vrše interakciju sa Copilot-om sa komercijalnom zaštitom podataka, na dnu ovog dokumenta postoji dokumentacija proizvoda, uključujući najčešća pitanja i saznajte više. 

Odzivi i odgovore koje generišu krajnji korisnici u Kopilotu sa komercijalnom zaštitom podataka obrađuju se i skladište u usklađivanju sa standardima rukovanja poslovnim podacima. Copilot sa ponudom za komercijalnu zaštitu podataka trenutno je dostupan samo poslovnim klijentima i njihovim ovlašćenim krajnjim korisnicima za odrasle, tako da ne predviđamo da će deca ili mladi u ovom trenutku biti krajnji korisnici kompanije Copilot sa komercijalnom zaštitom podataka. Pored toga, Copilot sa komercijalnom zaštitom podataka ne pruža nikakvo ponašanje ciljano oglašavanje krajnjim korisnicima. Umesto toga, svi prikazani oadћeni su samo kontekstualno relevantni o tome.  

Saznajte više

Ovaj dokument je deo šireg napora korporacije Microsoft da svoje principe vežbe iskoristi za vežbu. Da biste saznali više, pogledajte:

Pristup korporacije Microsoft odgovornom veštinom

Odgovorni VEI standard korporacije Microsoft

Odgovorni AI resursi korporacije Microsoft  

Microsoft Azure Learning kursevi o odgovornom veštačenju  

Osnovni podaci o ovom dokumentu  

© 2023 Microsoft. Sva prava zadržana. Ovaj dokument je obezbeđen "onakva koliko jeste" i samo u informativne svrhe. Informacije i prikazi izraženi u ovom dokumentu, uključujući URL i druge reference internet veb lokacije, mogu se promeniti bez obaveštenja. Vi snosite rizik njegovog korišćenja. Neki primeri su samo za ilustraciju i fiktivni. Nijedno pravo povezivanje nije predviđeno ili zamijenjeno.  

Da li vam je potrebna dodatna pomoć?

Želite još opcija?

Istražite pogodnosti pretplate, pregledajte kurseve za obuku, saznajte kako da obezbedite uređaj i još mnogo toga.