Prijavite se pomoću Microsofta
Prijavi se ili izradi račun.
Zdravo,
Odaberite drugi račun.
Imate više računa
Odaberite račun putem kojeg se želite prijaviti.

Zadnje ažuriranje: veljača 2024.

Osnove sustava Copilot u tražilici Bing   

Uvod  

U veljači 2023. Microsoft je pokrenuo novi Bing, sučelje za pretraživanje weba poboljšano za AI. Podržava korisnike sažimanje rezultata pretraživanja weba i pružanjem iskustva čavrljanja. Korisnici mogu stvarati i kreativni sadržaj, kao što su pjesme, vicevi, priče i, uz bing Izrada slika, slike. Novi poboljšani bing za AI pokreće se na raznim naprednim tehnologijama iz Microsofta i OpenAI-ja, uključujući GPT-4, najsusjedni veliki jezični model (LLM) i DALL-E, dubinski model učenja za generiranje digitalnih slika iz opisa na prirodnom jeziku, kako iz OpenAI-ja. Mjesecima prije javnog izdanja radili smo s oba modela na razvoju prilagođenog skupa mogućnosti i tehnika za pridruživanje vrhunskoj tehnologiji za AI i web-pretraživanju na novom servisu Bing.  U studenom 2023. Microsoft je preimenovali novi Bing u Copilot u tražilici Bing.

U Microsoftu ozbiljno prihvaćamo svoju predanost odgovornoj AI-u. Sučelje Copilot u tražilici Bing razvijeno je u skladu s Microsoftovim načelima AI-ja, Microsoftovim standardom odgovorne AI i u suradnji s odgovornim stručnjacima za AI u cijeloj tvrtki, uključujući Microsoftov Ured odgovornog AI-ja, naše inženjerske timove, Microsoft Research i ether. Dodatne informacije o odgovornoj AI-u potražite ovdje u Microsoftu.  

U ovom dokumentu opisujemo naš pristup odgovornoj AI-u za Copilot u tražilici Bing. Prije objave usvojili smo najsudarne metode za utvrđivanje, mjerenje i ublažavanje potencijalnih rizika i zloupotrebe sustava te kako bismo osigurali njegove prednosti za korisnike. Kako smo nastavili razvijati Copilot u tražilici Bing od prvog izdavanja, nastavili smo učiti i poboljšavati svoje odgovorne napore za AI. Ovaj će se dokument povremeno ažurirati radi komunikacije o našim procesima i metodama u razvoju.   

Ključni pojmovi  

Copilot u tražilici Bing sučelje je za pretraživanje weba koje poboljšava AI. Dok se koristi snažnom, novom tehnologijom, počinjemo definiranjem ključnih pojmova.  

Modeli strojnog učenja koji olakšavaju sortiranje podataka u označene razrede ili kategorije informacija. U sustavu Copilot na servisu Bing jedan je od načina na koji koristimo klasifikatori otkrivanje potencijalno štetnih sadržaja koje su poslali korisnici ili generirao sustav radi ublažavanje generiranja tog sadržaja te zloupotrebe ili zloupotrebe sustava. 

Kopilot u tražilici Bing nalazi se u rezultatima pretraživanja weba kada korisnici traže informacije. To znači da centriramo odgovor na upit korisnika ili upit na sadržaju visokog ranga s weba i pružamo veze na web-mjesta da bi korisnici mogli saznati više. Bing rangi sadržaj pretraživanja weba ponderiranjem značajki kao što su relevantnost, kvaliteta i kredibilitet te svježina. Te koncepte detaljnije opisujemo u članku Kako Bing daje rezultate Pretraživanje (pogledajte "Kvaliteta i vjerodostojnost" u odjeljku "Kako Bing Pretraživanje rezultate").   

Smatramo da su odgovore tvrtke Copilot u tražilici Bing u kojima su izjave podržane informacijama sadržanima u ulaznim izvorima, kao što su rezultati pretraživanja weba iz upita ili upita, Bingovi baza znanja podaci koje je provjerio činjenica i, za iskustvo čavrljanja, nedavna povijest razgovora iz čavrljanja. Neutemeirani odgovori oni su u kojima naredba nije uzemana u tim ulaznim izvorima.  

Veliki jezični modeli (LLM-i) u ovom su kontekstu AI modeli koji su obučeni za velike količine tekstnih podataka za predviđanje riječi u nizu. LLMs su sposobne obavljati razne zadatke, kao što su generiranje teksta, sažimanje, prijevod, klasifikacija i još mnogo toga.  

Metaprompt je program koji služi kao vodič za ponašanje sustava. Dijelovi metaprompta pomažu u usklađivanju ponašanja sustava s Microsoftovim načelima AI-ja i očekivanjima korisnika. Metapropt, primjerice, može sadržavati crtu kao što je "komunikacija na korisnikov jezik izbora".  

Metoda ili kombinacija metoda osmišljenih za smanjenje potencijalnih rizika koji mogu nastati korištenjem značajki utemeljenih na AI-u u sustavu Copilot u tražilici Bing.  

Tekst, glas, slike i/ili drugi omogućeni upiti koje korisnik šalje tražilici Bing kao unos u model koji pokreće nova generirana iskustva utemeljena na AI-u na tražilici Bing. Na primjer, korisnik može unijeti sljedeći upit:  

"Planiram putovanje za našu godišnjicu u rujnu. Koja su neka mjesta koja možemo ići u roku od 3 sata leta iz London Heathrow?”  

Tekst koji korisnik šalje tražilici Bing putem trake za pretraživanje radi pretraživanja weba. U ovom dokumentu razlikujemo upit (za pretraživanje weba) od upita (za generiranje korisničkog sučelja utemeljenog na AI-u na tražilici Bing). Na primjer, korisnik može unesite sljedeći upit za pretraživanje weba:  

"odredišta za putovanja u blizini zračne luke London Heathrow"  

Tehnike koje stručnjaci koriste za procjenu ograničenja i slabih točaka sustava te za testiranje učinkovitosti planiranih ublažavanja. Testiranje crvenog tima i testiranje otpornosti na stres upotrebljavaju se za utvrđivanje potencijalnih rizika i razlikuje se od sustavnog mjerenja rizika.   

Tekst, slika, grafikoni itd. koji Copilot u tražilici Bing izlaze kao odgovor na upit. Sinonimi za "odgovor" obuhvaćaju "dovršetak", "generiranje" i "odgovor". Bing, primjerice, može poslati sljedeći odgovor na upit koji smo koristili u definiciji "upita" iznad:   

"Čestitamo na godišnjici! Postoji mnogo mjesta na koja možete ići u roku od 3 sata leta iz London Heathrow. Prema jednom izvoru, neki od vikenda pobjeći u roku od tri sata avionom iz Londona su Bilbao, Kopenhagen, Reykjavik, i Stockholm 1, 2. Drugi izvor sugerira neke od najboljih mjesta za ići u Europi u rujnu su Krakow, Firenca, i Lisabon 3, 4. Također možete provjeriti izravne letove iz London Heathrow na različitim odredištima i vidjeti što vam se svidjeti 5. Nadam se da ćete imati divno putovanje!”  

Predviđene namjene i nova iskustva za AI  

Kopilot u namjeni tražilice Bing jest povezivanje korisnika s relevantnim rezultatima pretraživanja, pregled rezultata s weba radi pronalaženja i sažimanja odgovora koje korisnici traže, pomoći korisnicima suziti istraživanje da bi dobili odgovore putem iskustva čavrljanja i potaknuti kreativnost pomažući korisnicima da stvaraju sadržaj. Kopilot u generativnom korisničkom sučelju AI-ja tražilice Bing u nastavku podržava cilj da bude kopilot na temelju AI-ja za web.  

Sažimaju se. Kada korisnici na servisu Copilot na servisu Bing pošaljete upit za pretraživanje, sustav Bing obrađuje upit, provodi jedno ili više pretraživanja weba i koristi najbolje rezultate pretraživanja weba da bi generirao sažetak informacija za izlaganje korisnicima. Ti sažeci obuhvaćaju reference koje korisnicima pomažu da lakše vide rezultate pretraživanja koji se koriste za postavljanje sažetka i jednostavno pristupaju rezultatima pretraživanja. Sažimanja se mogu pojaviti na desnoj strani stranice s rezultatima pretraživanja i unutar iskustva čavrljanja.  

Iskustvo čavrljanja. Osim sažimanja, korisnici mogu čavrljati sa servisom Copilot u sustavu Bing putem teksta, slika ili glasovnog unosa, postaviti pitanja za daljnji rad da bi pojasnili pretraživanja i pronašli nove informacije te poslali upite za generiranje kreativnog sadržaja. Reference su obuhvaćene i iskustvom čavrljanja kada Copilot u tražilici Bing sažima rezultate pretraživanja u odgovoru.   

Generacija kreativnog sadržaja. U iskustvu čavrljanja i na stranici za pretraživanje korisnici mogu stvarati pjesme, viceve, priče, slike i drugi sadržaj uz pomoć tvrtke Copilot u tražilici Bing.  Slike stvara Designer (bivši Bing Izrada slika) i korisnici mogu pristupiti značajci putem početne Designer stranice i stranice Copilot. 

Kako funkcionira Copilot na servisu Bing?  

Uz Copilot u tražilici Bing razvili smo inovativan pristup za uvođenje najnovijih LLM-a u pretraživanje weba. Kada korisnik u copilotu u bing unesete upit, upit, povijest nedavnih razgovora, metaprompt i najpopularnije rezultate pretraživanja šalju se kao unosi u LLM. Model generira odgovor pomoću korisnikova upita i povijesti nedavnih razgovora za kontekstno oblikovanje zahtjeva, metaprompt radi usklađivanja odgovora s načelima Microsoftove AI i očekivanja korisnika te rezultata pretraživanja na temelju odgovora na temelju postojećeg sadržaja visokog ranga s weba.   

Odgovori se prikazuju korisnicima u nekoliko različitih oblika, kao što su tradicionalne veze na web-sadržaj, sažetke, slike i odgovori na čavrljanje koje generira AI. Summarizations and chat responses that rely on web search results will include references and a "Learn more" section below the responses, with links to search results that were used to ground the response. Korisnici mogu kliknuti te veze da bi saznali više o temi i informacijama koje se koriste za uzemljanje sažetka ili odgovora na čavrljanje.    

U sučelju kopilota korisnici mogu razgovorno izvoditi web-pretraživanja dodavanjem konteksta upitu i interakciji s odgovorima sustava da bi dodatno odredili svoje interese pretraživanja. Primjerice, korisnik može postaviti dodatna pitanja, zatražiti dodatne informacije za pojašnjenje ili na sustav odgovoriti na razgovor. U iskustvu čavrljanja korisnici mogu odabrati i odgovor iz unaprijed napisanih prijedloga koje zovemo prijedlozi za čavrljanje. Ti se gumbi pojavljuju nakon svakog odgovora tvrtke Copilot i nude predložene upite za nastavak razgovora u sklopu iskustva čavrljanja. Prijedlozi za čavrljanje prikazuju se uz sažeti sadržaj na stranici s rezultatima pretraživanja kao ulazna točka za iskustvo čavrljanja.  

Copilot na servisu Bing korisniku omogućuje i stvaranje priča, pjesama, pjesama i slika uz pomoć tražilice Bing. Kada Copilot u tražilici Bing otkrije namjeru korisnika da generira kreativni sadržaj (na primjer, upit počinje s "write me a ..."), sustav će u većini slučajeva generirati sadržaj responzivan na korisnikov upit. Slično tome, kada Copilot u tražilici Bing otkrije namjeru korisnika da generira sliku (na primjer, upit počinje s "nacrtaj mi ..."), sustav će u većini slučajeva generirati sliku koja odgovara korisnikov upitu. U odjeljku Vizualni Pretraživanje u iskustvu čavrljanja, sa slikom koju je snimila korisnikov fotoaparat, prenesena s korisnikov uređaja ili povezana s weba, korisnici mogu od copilota u tražilici Bing zatražiti razumijevanje konteksta, tumačenje i odgovaranje na pitanja o slici.  Korisnici također mogu prenijeti svoje datoteke na Copilot radi obrade, pretvorbe, obrade ili izračuna informacija od njih. U Microsoft Designer kojem korisnici mogu pristupiti putem kopilota u tražilici Bing, korisnici ne samo da mogu generirati slike pomoću upita, nego i mijenjati im veličinu ili stil te uređivati, kao što je zamućena pozadina ili učiniti boje živijima. 

Korisnici s Microsoftovim računima (MSA) sada imaju i mogućnost pretplate na Copilot Pro koji nudi poboljšano iskustvo, uključujući ubrzane performanse, brže stvaranje AI slika i uskoro mogućnost stvaranja vlastitih GPT-ova za Copilot. Copilot Pro je trenutno dostupna u ograničenim državama i planiramo da Copilot Pro uskoro bude dostupno na više tržišta.

U sučelju kopilota korisnici mogu pristupati gpTs-u kopilota. Copilot GPT, kao što je Designer GPT, prilagođena je verzija programa Microsoft Copilot na temi koja vas posebno zanima, kao što su fitness, putovanja i kuhanje, koja može pomoći pretvoriti nejasne ili općenite ideje u konkretnije upite s rezultatima, uključujući tekst i slike. U tvrtki Copilot korisnici mogu vidjeti dostupne GPT-ove za Copilot, a korisnici s računima sustava Copilot Pro uskoro će imati pristup programu Copilot GPT Builder, značajki koja korisnicima omogućuje stvaranje i konfiguriranje prilagođenog copilot GPT-a. The Responsible AI mitigations mentioned above for Copilot in Bing apply to Copilot GPTs.

Dodatne informacije o tome kako Copilot Pro gpT-ove za Copilot potražite ovdje.

Kopilot u tražilici Bing nastoji pružiti različite i sveobuhvatne rezultate pretraživanja uz svoju predanost slobodnom i otvorenom pristupu informacijama. U isto vrijeme, naši napori u pogledu kvalitete proizvoda uključuju rad na izbjegavanju nehotice promicanje potencijalno štetnih sadržaja korisnicima. Dodatne informacije o načinu na koji Bing rangi sadržaj, uključujući način na koji definira relevantnost, kvalitetu i kredibilitet web-stranice, dostupne su u "Smjernicama za administratore tražilice Bing".   Dodatne informacije o načelima moderacije sadržaja tražilice Bing dostupne su u odjeljku "Kako Bing isporučuje rezultate pretraživanja".   

U okruženju Copilot u sustavu Windows Copilot u tražilici Bing može raditi s operacijskim sustavom Windows radi pružanja vještina specifičnih za Windows, kao što su promjena korisničke teme ili pozadine te promjena postavki kao što su zvuk, Bluetooth i mreža. Ta iskustva korisniku omogućuju konfiguriranje postavki i poboljšavanje korisničkog iskustva pomoću upita na prirodnom jeziku za LLM. Funkcije specifične za aplikaciju mogu se pružati i iz dodataka za aplikacije drugih proizvođača. Oni mogu automatizirati zadatke koji se ponavljaju i postići veću učinkovitost korisnika. Budući da LLMs povremeno može napraviti pogreške, odgovarajuće korisničke potvrde upiti su navedeni tako da je korisnik konačni arbitar promjena koje se mogu izvršiti. 

Prepoznavanje, mjerenje i ublažavanje rizika  

Kao i druge tehnologije transformacije, iskorištavanje prednosti AI-ja nije bez rizika, a temeljni dio Microsoftova programa Odgovorna AI osmišljena je tako da identificira potencijalne rizike, mjeri njihovu sklonost da se dogodi i izradi ublažavanja kako bi ih se rješavala. Vođeni našim načelima AI-ja i našim odgovornim standardom AI, nastojali smo prepoznati, mjeriti i ublažiti potencijalne rizike i zloupotrebu kopilota u tražilici Bing uz istodobno osiguravanje transformativnih i korisnih načina korištenja koje pruža novo iskustvo. U odjeljcima u nastavku opisujemo naš ieracijativni pristup za utvrđivanje, mjerenje i ublažavanje potencijalnih rizika.   

Na razini modela naš je rad započeo istraživanjem analiza GPT-4 krajem ljeta 2022. To je uključivalo opsežno testiranje crvenog tima u suradnji s OpenAI-jem. Ovo je testiranje osmišljeno za procjenu kako će najnovija tehnologija funkcionirati bez dodatnih zaštitnih mjera koje su na nju primijenjene. Naša je specifična namjera u ovom trenutku bila proizvesti štetne odgovore, potencijalne načine zloupotrebe uređaja surface te utvrditi mogućnosti i ograničenja. Naša kombinirana učenja u programima OpenAI i Microsoft pridonijela su napretku u razvoju modela i, za nas u Microsoftu, informirale su naše razumijevanje rizika i pridonijele ranim strategijama ublažavanja rizika za Copilot u tražilici Bing.  

Osim testiranja crvenog tima na razini modela, multidisciplinarni tim stručnjaka provodio je brojne krugove testiranja crvenog tima na razini aplikacije na copilotu u Bing AI iskustvima prije nego što ih je javno omogućio u našem ograničenom pretpregledu izdanja. Taj nam je postupak pomogao bolje razumjeti kako bi se sustav mogao iskoristiti od strane protivnika i poboljšati naša ublažavanja. Testeri stresa koji nisu suparnici također su opsežno procijenili nove značajke tražilice Bing za nedostatke i slabe točke. Nakon izdanja nova iskustva za AI u tražilici Bing integrirana su u postojeću infrastrukturu za mjerenje proizvodnje i testiranje inženjerske organizacije bing. Primjerice, testeri crvenog tima iz različitih regija i pozadina neprekidno i sustavno pokušavaju ugroziti sustav, a njihovi se nalazi koriste za proširenje skupova podataka koje Bing koristi za poboljšanje sustava.  

Testiranje crvenog tima i testiranje otpornosti na stres mogu na površinu imati određene rizike, ali u produkcijskom će korisnici imati milijune različitih vrsta razgovora s kopilotom u tražilici Bing. Osim toga, razgovori su više puta i kontekstni, a prepoznavanje štetnog sadržaja unutar razgovora složen je zadatak. Da bismo bolje razumjeli i riješili potencijal za rizike u tvrtki Copilot u Bing AI iskustvima, razvili smo dodatnu odgovornu metriku AI-ja specifičnu za ta nova iskustva za AI za mjerenje potencijalnih rizika kao što su bjekstvo iz zatvora, štetan sadržaj i neutemeirani sadržaj. Također smo omogućili mjerenje na skali putem djelomično automatiziranih mjernih kanala. Svaki put kada se proizvod promijeni, ažuriraju se postojeća ublažavanja ili se predlažu nove mjere ublažavanja, ažuriramo naše mjerne kanale da bismo procijenili performanse proizvoda i odgovornu metriku AI-ja.  

Kao ilustrativna primjer, ažurirani djelomično automatizirani mjerni kanal za štetan sadržaj obuhvaća dvije glavne inovacije: simulaciju razgovora i automatiziranu primjedbu razgovora koju je potvrdio čovjek. Najprije su odgovorni stručnjaci za AI izgradili predloške za bilježenje strukture i sadržaja razgovora koji mogu rezultirati različitim vrstama štetnih sadržaja. Ti su predlošci potom dani razgovornom agentu koji je komunicirao kao hipotetski korisnik s kopilotom u tražilici Bing, generirajući simulirane razgovore. Da bismo utvrdili sadrže li ti simulirani razgovori štetan sadržaj, koristili smo smjernice koje obično koriste stručni lingvetičari za označavanje podataka i njihovo mijenjanje za korištenje u programu GPT-4 radi označavanja razgovora na razini, sužavanje smjernica dok se ne postigne značajan dogovor između razgovora označenih modelom i razgovora s oznakom ljudi. Naposljetku, koristili smo razgovore s oznakom modela za izračun odgovorne metrike AI koja bilježi učinkovitost copilota u tražilici Bing pri ublažavanju štetnog sadržaja.   

Naši mjerni kanali omogućuju nam brzo mjerenje potencijalnih rizika na razini. Kako tijekom razdoblja pretpregleda i tekućeg testiranja crvenog tima utvrdimo nove probleme, nastavljamo proširivanje skupova mjera radi procjene dodatnih rizika.  

Kao što smo utvrdili potencijalne rizike i zloupotrebu kroz procese kao što su testiranje crvenog tima i testiranje otpornosti na stres te smo ih mjereli pomoću gore navedenih inovativnih pristupa, razvili smo dodatna ublažavanja za one koji se koriste za tradicionalno pretraživanje. U nastavku opisujemo neka od tih ublažavanja. Nastavit ćemo pratiti Copilot u Bing AI iskustava za poboljšanje performansi proizvoda i ublažavanja.  

Postupno izdanje, kontinuirana procjena. Predani smo učenju i poboljšanju našeg odgovornog pristupa AI-u neprekidno dok se naše tehnologije i ponašanje korisnika razvijaju. Naša strategija inkrementalnog izdanja temeljni je dio načina na koji sigurno premještamo našu tehnologiju iz laboratorija u svijet i predano radimo na namjernom, promišljenom procesu kako bismo osigurali prednosti copilota u tražilici Bing. Ograničavanje broja osoba s pristupom tijekom razdoblja pretpregleda omogućuje nam otkrivanje načina na koji korisnici koriste Copilot u tražilici Bing, uključujući način na koji ga ljudi mogu zloupotrebljavati, pa možemo pokušati ublažiti nove probleme prije šireg izdanja. Na primjer, od korisnika zahtijevamo provjeru autentičnosti pomoću microsoftova računa prije pristupanja potpunom novom okruženju tražilice Bing. Neautorizirani korisnici mogu pristupiti samo ograničenom pretpregledu iskustva. Ti koraci obeshrabruju zloupotrebu i pomažu nam (prema potrebi) poduzeti odgovarajuće radnje kao odgovor na kršenja Kodeksa ponašanja.  Svakodnevno mijenjamo Copilot u tražilici Bing radi poboljšanja performansi proizvoda, poboljšanja postojećih ublažavanja i implementacije novih ublažavanja kao odgovor na naša učenja tijekom razdoblja pretpregleda.  

Uzemli u rezultatima pretraživanja. Kao što je prethodno navedeno, Copilot u tražilici Bing osmišljen je tako da pruža odgovore koje informacije u rezultatima pretraživanja weba podržavaju kada korisnici traže informacije. Sustav, primjerice, sadrži tekst iz najboljih rezultata pretraživanja i upute putem metaprompta da bi se odgovor na njega temeljio. Međutim, u sažetku sadržaja s weba, Copilot u tražilici Bing može u odgovoru uključiti informacije koje nisu prisutne u ulaznim izvorima. Drugim riječima, može proizvesti neutemeljene rezultate. Naše su rane procjene pokazale da neuutemeirani rezultati čavrljanja mogu biti prevladavajući za određene vrste upita ili tema od drugih, kao što su upit za matematičke izračune, financijske informacije ili informacije o tržištu (na primjer, zarada tvrtke, podaci o performansama dionica) i informacije kao što su točni datumi događaja ili određene cijene stavki. Korisnici bi uvijek trebali biti oprezni i koristiti najbolje rezultate prilikom pregledavanja sažetih rezultata pretraživanja, bilo na stranici s rezultatima pretraživanja ili u iskustvu čavrljanja. Poduzeli smo nekoliko mjera za ublažavanje rizika da se korisnici mogu preusmjeravanja na neutemeljenog generiranog sadržaja u scenarijima sažimanja i iskustvima čavrljanja. Na primjer, odgovori u sustavu Copilot na servisu Bing koji se temelje na rezultatima pretraživanja obuhvaćaju reference na izvorišna web-mjesta za korisnike koji mogu provjeriti odgovor i saznati više. Korisnicima se pruža i eksplicitna obavijest da komuniciraju sa sustavom AI i savjetuje se da provjere izvorišne materijale za web kako bi im pomogli pri upotrebi najboljih procjena.  

Klasifikatori utemeljeni na AI-ju i metaprompting za ublažavanje potencijalnih rizika ili zloupotrebe. Upotreba LLM-ova može dovesti do problematičnog sadržaja koji može dovesti do rizika ili zloupotrebe. Primjeri mogu obuhvaćati rezultate koji se odnose na samoštetu, nasilje, grafički sadržaj, intelektualno vlasništvo, netočne informacije, govor mržnje ili tekst koji bi se mogao odnositi na nezakonite aktivnosti. Klasifikatori i metaprompting dva su primjera ublažavanja koja su implementirana u copilotu u tražilici Bing kako bi se smanjio rizik od tih vrsta sadržaja. Klasifikatori klasificiraju tekst da bi označili različite vrste potencijalno štetnih sadržaja u upitima za pretraživanje, upitima za čavrljanje ili generiranim odgovorima. Bing koristi klasifikatelje utemeljene na AI-ju i filtre sadržaja koji se odnose na sve rezultate pretraživanja i relevantne značajke; smislili smo dodatne alate za klasifikaciju upita i filtre sadržaja koji su posebno namijenjeni rješavanju mogućih rizika koje je Copilot dignuo u značajkama tražilice Bing. Zastavice dovode do potencijalnih ublažavanja, kao što su ne vraćanje generiranog sadržaja korisniku, preusmjeravanje korisnika na drugu temu ili preusmjeravanje korisnika na tradicionalno pretraživanje. Metaprompting uključuje davanje uputa modelu kako bi vodio njegovo ponašanje, uključujući i tako da se sustav ponaša u skladu s Microsoftovim načelima AI i očekivanjima korisnika. Metapropt, primjerice, može sadržavati crtu kao što je "komunikacija na korisnikov jezik izbora".   

Zaštita privatnosti u vizualnim Pretraživanje na servisu Copilot na tražilici Bing. Kada korisnici prenesite sliku kao dio upita za čavrljanje, Copilot u tražilici Bing koristit će tehnologiju zamućivanja lica prije slanja slike UI modelu. Zamućeno lice koristi se za zaštitu privatnosti pojedinaca na slici. Tehnologija zamućivanja lica oslanja se na kontekstne tragove da bi odredila gdje se zamutiti i pokušat će zamutiti sva lica. Kada su lica zamućena, model AI može usporediti unesenu sliku s onima javno dostupnih slika na internetu. Zbog toga, primjerice, Copilot u tražilici Bing može prepoznati poznatog košarkaša s fotografije tog igrača na košarkaškom igralištu stvaranjem brojčanog prikaza koji odražava broj dresa igrača, boju dresa, prisutnost košarkaša itd. Kopilot u tražilici Bing ne pohranjuje brojčane prikaze osoba iz prenesenih slika i ne dijeli ih s trećim stranama. Kopilot u tražilici Bing koristi brojčane prikaze slika koje korisnici prenose samo u svrhu odgovaranja na upite korisnika, a zatim se brišu u roku od 30 dana nakon što čavrljanje završi.    

Ako korisnik od copilota u tražilici Bing zatraži informacije o prenesenoj slici, odgovori na čavrljanje mogu odražavati utjecaj zamućenja lica na mogućnost modela da pruži informacije o prenesenoj slici. Primjerice, Copilot u tražilici Bing može nekome opisati zamućeno lice.    

Ograničavanje pomaka razgovora. Tijekom razdoblja pretpregleda saznali smo da vrlo dugačke sesije čavrljanja mogu rezultirati odgovorima koji se ponavljaju, nisu korisni ili nisu usklađeni s copilotom u željenom tonu tražilice Bing. Da bismo riješili taj pomak razgovora, ograničili smo broj skretanja (razmjena koje sadrže i korisničko pitanje i odgovor tvrtke Copilot na servisu Bing) po sesiji čavrljanja. Nastavljamo s procijenite dodatne pristupe za ublažavanje tog problema.  

Prompt obogaćivanje. U nekim slučajevima korisnikov upit može biti dvosmislen. Kada se to dogodi, Copilot u tražilici Bing može upotrijebiti LLM da bi pomogao u sastavljanju dodatnih pojedinosti u upitu da bi korisnici dobili odgovor koji traže. Takvo promptno obogaćivanje ne odnosi se ni na koje znanje o korisniku ni njihovim prethodnim pretraživanjima, već na modelu AI. Ti će revidirani upiti biti vidljivi u korisnikove povijesti čavrljanja, a, kao i u drugim pretraživanjima, mogu se izbrisati pomoću kontrola u proizvodu.  

Korisnički centrirani dizajn i intervencije korisničkog iskustva. Korisnički centrirani dizajn i korisnička iskustva ključni su aspekt Microsoftova pristupa odgovornoj AI-u. Cilj je ukorijeniti dizajn proizvoda u potrebama i očekivanjima korisnika. Budući da korisnici prvi put komuniciraju sa servisom Copilot u tražilici Bing, nudimo razne dodirne točke osmišljene da bi bolje razumjeli mogućnosti sustava, otkrivali im da copilot u tražilici Bing omogućuje AI i ograničenja komunikacije. Iskustvo je osmišljeno na taj način da bi korisnicima pomoglo da na najbolji način iskoristite Copilot u tražilici Bing i minimiziraju rizik od overreliance. Elementi iskustva korisnicima pomažu i da bolje razumiju copilota u tražilici Bing i njihove interakcije s njima. To obuhvaća prijedloge za čavrljanje specifične za odgovornu AI (na primjer, kako Bing koristi AI? Zašto Copilot na tražilici Bing ne odgovara na neke teme?), objašnjenja ograničenja, načini na koje korisnici mogu saznati više o načinu na koji sustav funkcionira i prijavljivati povratne informacije te jednostavno kretanje po referencama koje se prikazuju u odgovorima da bi korisnicima prikazali rezultate i stranice na kojima su odgovori uzemljivali.  

Sve otkrivanje. Kopilot u tražilici Bing pruža nekoliko dodirnih točka za smislenu objavu AI-ja kada su korisnici obaviješteni o interakciji sa sustavom AI, kao i prilike za dodatne informacije o tvrtki Copilot u tražilici Bing. Osnaživanje korisnika s tim znanjem može im pomoći izbjeći preusmjesno korištenje AI-ja i naučiti o prednostima i ograničenjima sustava.  

Medijsko dokazanje.Microsoft Designer je omogućio značajku "Vjerodajnice za sadržaj" koja koristi kriptografske metode za označavanje izvora ili "provenance" svih slika koje generira AI stvorene na Designer. Nevidljiva digitalna značajka vodenog žiga prikazuje izvor, vrijeme i datum izvornog stvaranja, a te informacije nije moguće izmijeniti. Tehnologija koristi standarde koje je postavili Koalicija za sadržaj i autentičnost (C2PA) kako bi dodala dodatni sloj povjerenja i transparentnosti za slike koje generira AI. Microsoft je suotečatelj C2PA-e i pridonio je osnovnoj tehnologiji dokaza o digitalnom sadržaju. 

Uvjeti korištenja i kodeks ponašanja. Ovaj resurs upravlja korištenjem kopilota u tražilici Bing. Korisnici bi se trebali pridržavati Uvjeta korištenja i Kodeksa ponašanja, koji ih, između ostalih, obavještava o dopuštenim i dopuštenim načinima upotrebe i posljedicama kršinja uvjeta. Uvjeti korištenja korisnicima nude i dodatna otkrivanja te služe kao praktična referenca korisnicima za učenje o sustavu Copilot u tražilici Bing.   

Operacije i brzi odgovor. Copilot koristimo i u stalnom praćenju i operativnim procesima tražilice Bing kako bismo riješili problem kada Copilot u tražilici Bing prima signale ili prima izvješće koje upućuje na moguću zloupotrebu ili kršenje Uvjeta korištenja ili Kodeksa ponašanja.  

Povratne informacije, nadzor i nadzor. Okruženje Copilot u tražilici Bing nadohvali su na postojeće alate koji korisnicima omogućuju slanje povratnih informacija i izvješća o problemima koje pregledaju Microsoftovi operativni timovi. Radni procesi tražilice Bing proširili su se i da bi se obuhvatili značajke u sklopu servisa Copilot u okruženju Bing, na primjer, ažuriranje stranice Izvješće o problemu radi uvrštavanja novih vrsta sadržaja koje korisnici generiraju uz pomoć modela.   

Naš pristup prepoznavanju, mjerenju i ublažavanju rizika nastavit će se razvijati dok iramo više, a već poboljšavamo na temelju povratnih informacija prikupljenih tijekom razdoblja pretpregleda.     

Automatsko otkrivanje sadržaja. Kada korisnici prenose slike u sklopu upita za čavrljanje, Copilot u tražilici Bing implementira alate za otkrivanje dječjeg seksualnog iskorištavanja i zlostavljanja slika (CSEAI), što je osobito tehnologija koja se podudara s raspršivanjem PhotoDNA. Microsoft je razvio PhotoDNA da bi pomogao pronaći duplikate poznatih CSEAI-ja. Microsoft prijavljuje sve očite CSEAI-je u Nacionalni centar za nestalu i zlostavljanju djecu (NCMEC) prema zakonu SAD-a. Kada korisnici prenose datoteke radi analize ili obrade, Copilot implementira automatizirani pregled radi otkrivanja sadržaja koji može dovesti do rizika ili zloupotrebe, kao što je tekst koji se može odnositi na nezakonite aktivnosti ili zlonamjerni kod.

Zaštita privatnosti  

Microsoftovo dugogodišnje uvjerenje da je privatnost temeljno ljudsko pravo obavijestio je svaku fazu Microsoftova razvoja i implementacije sustava Copilot u okruženju Bing. Naše obveze zaštite privatnosti svih korisnika, uključujući pružanje transparentnosti i kontrole nad svojim podacima i integriranje privatnosti dizajnom putem minimizacije podataka i ograničenja svrhe, temeljne su za Copilot u tražilici Bing. Kako razvijamo naš pristup pružanju kopilota u generativnom korisničkom sučelju servisa Bing, neprekidno ćemo istraživati kako najbolje zaštititi privatnost. Ovaj će se dokument ažurirati kako to radimo. Dodatne informacije o tome kako Microsoft štiti privatnost naših korisnika dostupne su u Microsoftovoj izjavi o zaštiti privatnosti.  

U okruženju Copilot u sustavu Windows vještine sustava Windows mogu, u sklopu svojih funkcija, dijeliti korisničke podatke s razgovorom u čavrljanju. To je podložno odobrenju korisnika i prikazuju se upiti korisničkog sučelja da bi se potvrdila korisnička namjera prije zajedničkog korištenja korisničkih podataka s razgovorom u čavrljanju.

Microsoft i dalje smatra da su potrebe djece i mladih dio procjene rizika novih generativne značajke AI-ja u tvrtki Copilot na servisu Bing. Svi Microsoftovi računi za djecu koji korisnika identificiraju kao mlađe od 13 godina ili na neki drugi način određeni u skladu s lokalnim zakonima ne mogu se prijaviti da bi pristupili potpunom novom okruženju tražilice Bing.   

Kao što je prethodno opisano, za sve korisnike koje smo implementirale zaštitne mjere kojima se umanji potencijalno štetan sadržaj. U aplikaciji Copilot na servisu Bing rezultati su postavljeni kao u strogom načinu rada sigurnog pretraživanja servisa Bing, koji ima najvišu razinu zaštite sigurnosti u glavnom pretraživanju tražilice Bing, čime se korisnicima, uključujući teen korisnike, onemoguće da se izlože potencijalno štetnom sadržaju. Osim informacija koje smo naveli u ovom dokumentu i u najčešćim pitanjima o značajkama čavrljanja, dodatne informacije o načinu na koji Copilot na tražilici Bing funkcionira kako bi se izbjeglo reagiranje s neočekivanim uvredljivim sadržajem u rezultatima pretraživanja dostupne su ovdje.  

Microsoft se obvezao da neće isporučivati personalizirano oglašavanje na temelju ponašanja na mreži djeci čiji datum rođenja na microsoftovu računu označava da su mlađa od 18 godina. Ta će se važna zaštita proširiti na oglase u sustavu Copilot u značajkama tražilice Bing. Korisnici mogu vidjeti kontekstne oglase na temelju upita ili upita koji se koriste za interakciju s tražilicom Bing.  

Da bismo otključali transformativni potencijal generiranja AI-ja, moramo izgraditi povjerenje u tehnologiju osnaživanjem pojedinaca da razumiju kako se njihovi podaci koriste i dajući im smislene izbore i kontrole nad njihovim podacima. Kopilot u tražilici Bing osmišljen je za određivanje prioriteta ljudske agencije, pružanjem informacija o načinu na koji proizvod funkcionira, kao i ograničenjima te širenjem robusnih korisničkih odabira i kontrola na Copilot u značajkama tražilice Bing.   

Microsoftova izjava o zaštiti privatnosti pruža informacije o našim transparentnim praksama zaštite privatnosti za zaštitu naših korisnika te se navode informacije o kontrolama koje našim korisnicima omogućuju prikaz svojih osobnih podataka i upravljanje njima. Da bi korisnici imali potrebne informacije prilikom interakcije s novim značajkama razgovora na tražilici Bing, objave u proizvodu obavještavaju korisnike da su u vezi s AI proizvodom, a nudimo veze na dodatna najčešća pitanja i objašnjenja o načinu na koji te značajke funkcioniraju. Microsoft će nastaviti slušati povratne informacije korisnika i dodat će dodatne pojedinosti o značajkama razgovora tražilice Bing kako bi po potrebi potakla razumijevanje načina na koji proizvod funkcionira.   

Microsoft svojim korisnicima nudi i robusne alate za ostvarivanje svojih prava nad svojim osobnim podacima. Za podatke koje Copilot prikuplja na servisu Bing, uključujući putem korisničkih upita i upita, Microsoftova nadzorna ploča za zaštitu privatnosti omogućuje autoriziranim (prijavljenim) korisnicima alate za ostvarivanje svojih prava ispitanika, uključujući pružanjem korisnicima mogućnost prikaza, izvoza i brisanja pohranjene povijesti razgovora. Microsoft i dalje prima povratne informacije o tome kako želi upravljati novim okruženjem servisa Bing, uključujući korištenjem okruženja za upravljanje podacima u kontekstu.   

Copilot u tražilici Bing također odaje počast zahtjevima u skladu s europskim pravom na zaborav, nakon postupka koji je Microsoft razvio i sužavao za tradicionalne funkcije pretraživanja tražilice Bing. Svi korisnici ovdje mogu prijaviti probleme u vezi s generiranim sadržajem i odgovorima, a naši europski korisnici mogu koristiti ovaj obrazac za slanje zahtjeva za blokiranje rezultata pretraživanja u Europi s pravom na zaborav.   

Kopilot u tražilici Bing poštovat će odabire privatnosti korisnika, uključujući one koje su prethodno bile dostupne u tražilici Bing, kao što je pristanak za prikupljanje i korištenje podataka koji se traži putem natpisa i kontrola kolačića dostupnih na Microsoftovoj nadzornoj ploči za zaštitu privatnosti. Da bismo omogućili samostalnost korisnika i agenciju u donošenju informiranih odluka, upotrebljavali smo interni postupak pregleda da bismo pažljivo pregledali način na koji se korisnicima prikazuju odabiri. 

Uz kontrole dostupne putem Microsoftove nadzorne ploče za zaštitu privatnosti, koje korisnicima omogućuju prikaz, izvoz i brisanje povijesti pretraživanja, uključujući komponente povijesti čavrljanja, provjereni korisnici koji su omogućili značajku povijest čavrljanja u proizvodu imaju mogućnost pregledavanja povijesti čavrljanja, pristupanja povijesti čavrljanja i preuzimanja putem kontrola u proizvodu. Korisnici mogu izbrisati određena čavrljanja iz povijesti čavrljanja ili u cijelosti isključiti funkciju povijest razgovora tako da posjete stranicu Postavke tražilice Bing. Korisnici također mogu odabrati želite li personalizaciji dopustiti pristup prilagođenijim iskustvima s personaliziranim odgovorima. Korisnici u bilo kojem trenutku mogu odustati od personalizacije u postavkama čavrljanja na stranici Postavke tražilice Bing.  Brisanje određenih čavrljanja iz povijesti čavrljanja onemogunjuje njihovo korištenje za personalizaciju.  
 
Dodatne informacije o povijesti čavrljanja i personalizaciji dostupne su korisnicima u najčešćim pitanja o tvrtki Copilot na servisu Bing. 

Copilot u tražilici Bing izgrađen je uz zaštitu privatnosti, tako da se osobni podaci prikupljaju i koriste samo prema potrebi i zadržavaju se više nego što je potrebno. Kao što je već spomenuto, značajka Visual Pretraživanje in Copilot in Bing implementira mehanizam koji zamući lica na slikama u trenutku prijenosa korisnika, tako da se slike lica ne obrađuju ni ne pohranjuju. Dodatne informacije o osobnim podacima koje Bing prikuplja, načinu na koji se upotrebljavaju te načinu na koji se pohranjuju i brišu dostupne su u Microsoftovoj izjavi o zaštiti privatnosti, koja sadrži i informacije o novim značajkama čavrljanja tražilice Bing.   

Kopilot na servisu Bing ima pravilnike o zadržavanju i brisanju podataka da bi se osiguralo da se osobni podaci prikupljeni putem značajki čavrljanja tražilice Bing čuvaju samo koliko god je to potrebno.   

Nastavit ćemo učiti i razvijati naš pristup u pružanju usluge Copilot u tražilici Bing, a kao što to radimo, nastavit ćemo raditi u različitim disciplinama radi usklađivanja inovacija za AI s ljudskim vrijednostima i temeljnim pravima, uključujući zaštitu mladih korisnika i privatnost.   

Copilot s komercijalnom zaštite podataka 

Copilot s komercijalnom zaštitu podataka, prijašnjeg naziva Bing Chat Enterprise ("BCE"), objavio je Microsoft u besplatnom javnom pretpregledu u srpnju 2023. kao besplatan dodatak za određene korisnike M365. Copilot s komercijalnom zaštitu podataka sučelje je za pretraživanje weba koje poboljšava AI za krajnje korisnike u velikim tvrtkama. 

Kao i u sustavu Copilot u tražilici Bing, kada Copilot s krajnjim korisnikom komercijalne zaštite podataka u sučelje uđe upit, upit, neposredni razgovor, najbolji rezultati pretraživanja i metapropt šalju se kao unosi u LLM. Model generira odgovor pomoću povijesti upita i neposrednih razgovora radi kontekstnog definiranja zahtjeva, metaprompta radi usklađivanja odgovora s načelima Microsoftovih AI-ja i očekivanjima korisnika te rezultata pretraživanja na temelju odgovora na temelju postojećeg sadržaja visokog ranga s weba. To funkcionira na isti način kao i Copilot na servisu Bing kao što je prethodno opisano u ovom dokumentu, uz iznimku da se Copilot s komercijalnom zaštitu podataka oslanja samo na trenutnu povijest razgovora (ne povijest nedavnih razgovora) jer pohranjena povijest čavrljanja nije trenutno podržana značajka. Designer i Visual Pretraživanje sada su dostupni u ovoj verziji. 

Kao i druge tehnologije transformacije, iskorištavanje prednosti AI-ja nije bez rizika, a temeljni dio Microsoftova programa Odgovorna AI osmišljena je tako da identificira potencijalne rizike, mjeri njihovu sklonost da se dogodi i izradi ublažavanja kako bi ih se rješavala. Ponovno, gore navedeni opis Microsoftovih napora za prepoznavanje, mjerenje i ublažavanje potencijalnih rizika za Copilot u tražilici Bing također se odnosi na ovu verziju, uz neka pojašnjenja o ublažavanjima koja su opisana u nastavku: 

Postupno izdanje, kontinuirana procjena. Slično kao i kod kopilota Bing, za Copilot s komercijalnom zaštitu podataka također smo poduzeli inkrementalni pristup izdanju. 18. srpnja 2023., Copilot s komercijalnom zaštitu podataka postao je dostupan kao besplatan pretpregled za kvalificirane poslovne korisnike s određenim računima M365 da bi se uključio za krajnje korisnike u velikim tvrtkama. Trideset (30) dana nakon obavješćivanja kvalificiranih poslovnih klijenata, Copilot s komercijalnom zaštitu podataka postao je "zadan" za te iste korisnike. Copilot s komercijalnom zaštitu podataka također je postao dostupan za određene nastavničko nastavničko M365 račune. Copilot s komercijalnom zaštitu podataka postao je općenito dostupan određenim poslovnim korisnicima 1. prosinca 2023. U budućnosti planiramo proširiti pristup tvrtki Copilot s komercijalnom zaštite podataka na Microsoft Entra ID korisnika.

Uvjeti korištenja i kodeks ponašanja. Krajnji korisnici tvrtke Copilot s komercijalnom zaštitu podataka moraju se pridržavati uvjeta korištenja krajnjeg korisnika. Ovi Uvjeti korištenja obavještavaju krajnje korisnike o dopuštenim i nedopusti dostupnim načinima korištenja i posljedicama kršijućih uvjeta.  

Operacije i brzi odgovor. Copilot koristimo i u stalnom praćenju i operativnim procesima tražilice Bing kako bismo riješili problem kada Copilot s komercijalnom zaštitu podataka prima signale ili prima izvješće koje upućuje na moguću zloupotrebu ili kršenje uvjeta korištenja za krajnjeg korisnika

Povratne informacije, nadzor i nadzor. Copilot s komercijalnom zaštitom podataka koristi isto alat kao i Copilot u tražilici Bing za korisnike za slanje povratnih informacija i izvješća o problemima koje pregledaju Microsoftovi operativni timovi. Kopilot u operativnim procesima tražilice Bing proširio se i kako bi se značajke u tvrtki Copilot prilagodile okruženjima za zaštitu komercijalnih podataka, na primjer, ažuriranje stranice Izvješće o problemu radi uvrštavanja novih vrsta sadržaja koje korisnici generiraju uz pomoć modela.  

Da bi krajnji korisnici imali potrebne informacije prilikom interakcije sa sustavom Copilot s komercijalnom zaštitu podataka, pri dnu ovog dokumenta dostupna je dokumentacija o proizvodu, uključujući najčešća pitanja i stranice Dodatne informacije. 

Upiti i odgovori koje generiraju krajnji korisnici u tvrtki Copilot s komercijalnom zaštitu podataka obrađuju se i pohranjuju u skladu sa standardima obrade podataka u tvrtki. Kopilot s komercijalnom ponudom zaštite podataka trenutno je dostupan samo poslovnim korisnicima i njihovim autoriziranim krajnjim korisnicima odraslih, stoga ne očekujemo da će djeca ili mladi korisnici tvrtke Copilot u ovom trenutku imati komercijalnu zaštitu podataka. Osim toga, Copilot s komercijalnom zaštitu podataka krajnjim korisnicima ne pruža oglase ciljane na ponašanje. Umjesto toga, svi prikazani oglasi samo su kontekstualno relevantni oglasi.  

Saznajte više

Ovaj je dokument dio šireg nastojanja Microsofta da uvježba naša načela AI-ja. Dodatne informacije potražite u članku:

Microsoftov pristup odgovornoj AI-u

Microsoft's Responsible AI Standard

Microsoftovi resursi za odgovornu AI  

Tečajevi za Microsoft Azure Learning o odgovornoj AI  

O ovom dokumentu  

© Microsoft 2023. Sva prava pridržana. Ovaj se dokument nalazi u "trenutnom obliku" i samo u informativne svrhe. Informacije i prikazi izraženi u ovom dokumentu, uključujući URL i druge reference na internetsko web-mjesto, mogu se promijeniti bez prethodne obavijesti. Sami snosite rizik njegova korištenja. Neki su primjeri samo za ilustraciju i fiktivni. Nije predviđeno stvarno pridruživanje niti se može zaključiti.  

Potrebna vam je dodatna pomoć?

Želite dodatne mogućnosti?

Istražite pogodnosti pretplate, pregledajte tečajeve za obuku, saznajte kako zaštititi uređaj i još mnogo toga.

Zajednice vam pomažu da postavljate pitanja i odgovarate na njih, pošaljete povratne informacije i čujete se sa stručnjacima s bogatim znanjem.

Jesu li vam ove informacije bile korisne?

Koliko ste zadovoljni jezičnom kvalitetom?
Što je utjecalo na vaše iskustvo?
Ako pritisnete Pošalji, vaše će se povratne informacije iskoristiti za poboljšanje Microsoftovih proizvoda i usluga. Vaš će IT administrator moći prikupiti te podatke. Izjava o zaštiti privatnosti.

Hvala vam na povratnim informacijama!

×