Zadnje ažuriranje: svibanj 2024.
Osnove Copilot u tražilici Bing
Copilot u tražilici Bing je sada Microsoft Copilot. Pročitajte o našem pristupu odgovornoj AI u dokumentaciji ovdje: Obavijest o transparentnosti za Microsoft Copilot.
Uvod
U veljači 2023. Microsoft je pokrenuo novi Bing, sučelje za pretraživanje weba poboljšano za AI. Podržava korisnike sažimanje rezultata pretraživanja weba i pružanjem iskustva čavrljanja. Korisnici mogu stvarati i kreativni sadržaj, kao što su pjesme, vicevi, priče i, uz bing Izrada slika, slike. Novi poboljšani AI Bing pokreće se na raznim naprednim tehnologijama tvrtke Microsoft i OpenAI, uključujući GPT, najsusmešni veliki jezični model (LLM) i DALL-E, dubinski model učenja za generiranje digitalnih slika iz opisa na prirodnom jeziku, kako iz OpenAI-ja. Mjesecima prije javnog izdanja radili smo s oba modela na razvoju prilagođenog skupa mogućnosti i tehnika za pridruživanje vrhunskoj tehnologiji za AI i web-pretraživanja na novom servisu Bing. U studenom 2023. Microsoft je preimenovali novi Bing u Copilot u tražilici Bing.
U Microsoftu ozbiljno prihvaćamo svoju predanost odgovornom AI-ju. Iskustvo Copilot u tražilici Bing razvijeno je u skladu s Microsoftovim načelima za AI, Microsoftovim standardom odgovorne AI i u suradnji s odgovornim stručnjacima za AI u cijeloj tvrtki, uključujući Microsoftov Ured odgovornog AI-ja, naše inženjerske timove, Microsoft Research i eter. Dodatne informacije o odgovornoj AI-u potražite ovdje u Microsoftu.
U ovom dokumentu opisujemo naš pristup odgovornoj AI-u za Copilot u tražilici Bing. Prije objave usvojili smo najsudarne metode za utvrđivanje, mjerenje i ublažavanje potencijalnih rizika i zloupotrebe sustava te kako bismo osigurali njegove prednosti za korisnike. Kako smo se i dalje razvijali Copilot u tražilici Bing od prvog izdavanja, nastavili smo učiti i poboljšavati svoje odgovorne napore za AI. Ovaj će se dokument povremeno ažurirati radi komunikacije o našim procesima i metodama u razvoju.
Ključni pojmovi
Copilot u tražilici Bing je sučelje za pretraživanje weba koje poboljšava AI. Dok se koristi snažnom, novom tehnologijom, počinjemo definiranjem ključnih pojmova.
Modeli strojnog učenja koji olakšavaju sortiranje podataka u označene razrede ili kategorije informacija. U Copilot u tražilici Bing, jedan od načina na koji koristimo klasifikatori jest da otkrijemo potencijalno štetan sadržaj koji su poslali korisnici ili generira sustav kako bismo ublažili generiranje tog sadržaja i zloupotrebu ili zloupotrebu sustava.
Copilot u tražilici Bing je u rezultatima pretraživanja weba kada korisnici traže informacije. To znači da centriramo odgovor na upit korisnika ili upit na sadržaju visokog ranga s weba i pružamo veze na web-mjesta da bi korisnici mogli saznati više. Bing rangi sadržaj pretraživanja weba ponderiranjem značajki kao što su relevantnost, kvaliteta i kredibilitet te svježina. Te koncepte detaljnije opisujemo u članku Kako Bing daje rezultate pretraživanja (pogledajte "Kvaliteta i vjerodostojnost" u odjeljku "Kako Bing rangi rezultate pretraživanja").
Smatramo da su utemeljeni odgovori odgovori iz programa Copilot u tražilici Bing u kojima su izjave podržane informacijama sadržanima u ulaznim izvorima, kao što su rezultati pretraživanja weba iz upita ili upita, Bingovi baza znanja podaci koje je provjerio činjenica i, za iskustvo čavrljanja, nedavna povijest razgovora iz čavrljanja. Neutemeirani odgovori oni su u kojima naredba nije uzemana u tim ulaznim izvorima.
Veliki jezični modeli (LLM-i) u ovom su kontekstu AI modeli koji su obučeni za velike količine tekstnih podataka za predviđanje riječi u nizu. LLMs su sposobne obavljati razne zadatke, kao što su generiranje teksta, sažimanje, prijevod, klasifikacija i još mnogo toga.
Metaprompt je program koji služi kao vodič za ponašanje sustava. Dijelovi metaprompta pomažu u usklađivanju ponašanja sustava s Microsoftovim načelima AI-ja i očekivanjima korisnika. Metapropt, primjerice, može sadržavati crtu kao što je "komunikacija na korisnikov jezik izbora".
Metoda ili kombinacija metoda osmišljenih za smanjenje potencijalnih rizika koji mogu nastati korištenjem značajki utemeljenih na AI-u u Copilot u tražilici Bing.
Tekst, glas, slike i/ili drugi omogućeni upiti koje korisnik šalje tražilici Bing kao unos u model koji pokreće nova generirana iskustva utemeljena na AI-u na tražilici Bing. Na primjer, korisnik može unijeti sljedeći upit:
"Planiram putovanje za našu godišnjicu u rujnu. Koja su neka mjesta koja možemo ići u roku od 3 sata leta iz London Heathrow?”
Tekst koji korisnik šalje tražilici Bing putem trake za pretraživanje radi pretraživanja weba. U ovom dokumentu razlikujemo upit (za pretraživanje weba) od upita (za generiranje korisničkog sučelja utemeljenog na AI-u na tražilici Bing). Na primjer, korisnik može unesite sljedeći upit za pretraživanje weba:
"odredišta za putovanja u blizini zračne luke London Heathrow"
Tehnike koje stručnjaci koriste za procjenu ograničenja i slabih točaka sustava te za testiranje učinkovitosti planiranih ublažavanja. Testiranje crvenog tima i testiranje otpornosti na stres upotrebljavaju se za utvrđivanje potencijalnih rizika i razlikuje se od sustavnog mjerenja rizika.
Tekst, slika, grafikoni itd. koji Copilot u tražilici Bing izlaze kao odgovor na upit. Sinonimi za "odgovor" obuhvaćaju "dovršetak", "generiranje" i "odgovor". Bing, primjerice, može poslati sljedeći odgovor na upit koji smo koristili u definiciji "upita" iznad:
"Čestitamo na godišnjici! Postoji mnogo mjesta na koja možete ići u roku od 3 sata leta iz London Heathrow. Prema jednom izvoru, neki od vikenda pobjeći u roku od tri sata avionom iz Londona su Bilbao, Kopenhagen, Reykjavik, i Stockholm 1, 2. Drugi izvor sugerira neke od najboljih mjesta za ići u Europi u rujnu su Krakow, Firenca, i Lisabon 3, 4. Također možete provjeriti izravne letove iz London Heathrow na različitim odredištima i vidjeti što vam se svidjeti 5. Nadam se da ćete imati divno putovanje!”
Predviđene namjene i nova iskustva za AI
Copilot u tražilici Bing su namjene povezivanja korisnika s relevantnim rezultatima pretraživanja, pregled rezultata s weba radi pronalaženja i sažimanja odgovora koje korisnici traže, pomoć korisnicima u sužavanje istraživanja radi pronalaženja odgovora pomoću iskustva čavrljanja i poticanje kreativnosti pomažući korisnicima da stvaraju sadržaj. Copilot u tražilici Bing je generativne AI iskustva u nastavku podržavaju cilj da bude AI-powered copilot za web.
Sažimaju se. Kada korisnici na web-mjestu Copilot u tražilici Bing upit za pretraživanje, sustav Bing obrađuje upit, provodi jedno ili više pretraživanja weba i koristi najbolje rezultate pretraživanja weba da bi generirao sažetak informacija koje će se izlagati korisnicima. Ti sažeci obuhvaćaju reference koje korisnicima pomažu da lakše vide rezultate pretraživanja koji se koriste za postavljanje sažetka i jednostavno pristupaju rezultatima pretraživanja. Sažimanja se mogu pojaviti na desnoj strani stranice s rezultatima pretraživanja i unutar iskustva čavrljanja.
Iskustvo čavrljanja. Osim sažimanja, korisnici mogu čavrljati sa sustavom Copilot u tražilici Bing putem teksta, slike ili glasovnog unosa, postaviti pitanja za daljnji rad da bi pojasnili pretraživanja i pronašli nove informacije te poslali upite za generiranje kreativnog sadržaja. Reference su obuhvaćene i iskustvom čavrljanja Copilot u tražilici Bing sažima rezultate pretraživanja u odgovoru.
Generacija kreativnog sadržaja. U iskustvu čavrljanja i na stranici za pretraživanje korisnici mogu stvarati pjesme, viceve, priče, slike i druge sadržaje uz pomoć Copilot u tražilici Bing. Slike stvara Designer (bivši Bing Izrada slika) i korisnici mogu pristupiti značajci putem početne Designer stranice i stranice Copilot.
Kako Copilot u tražilici Bing funkcionira?
Uz Copilot u tražilici Bing, razvili smo inovativan pristup za uvođenje najnovijih LLM-a u pretraživanje weba. Kada korisnik unesete upit u Copilot u tražilici Bing, upit, povijest nedavnih razgovora, metaprompt i najpopularniji rezultati pretraživanja šalju se kao unosi u LLM. Model generira odgovor pomoću korisnikova upita i povijesti nedavnih razgovora za kontekstno oblikovanje zahtjeva, metaprompt radi usklađivanja odgovora s načelima Microsoftove AI i očekivanja korisnika te rezultata pretraživanja na temelju odgovora na temelju postojećeg sadržaja visokog ranga s weba.
Odgovori se prikazuju korisnicima u nekoliko različitih oblika, kao što su tradicionalne veze na web-sadržaj, sažetke, slike i odgovori na čavrljanje koje generira AI. Summarizations and chat responses that rely on web search results will include references and a "Learn more" section below the responses, with links to search results that were used to ground the response. Korisnici mogu kliknuti te veze da bi saznali više o temi i informacijama koje se koriste za uzemljanje sažetka ili odgovora na čavrljanje.
U sučelju kopilota korisnici mogu razgovorno izvoditi web-pretraživanja dodavanjem konteksta upitu i interakciji s odgovorima sustava da bi dodatno odredili svoje interese pretraživanja. Primjerice, korisnik može postaviti dodatna pitanja, zatražiti dodatne informacije za pojašnjenje ili na sustav odgovoriti na razgovor. U iskustvu čavrljanja korisnici mogu odabrati i odgovor iz unaprijed napisanih prijedloga koje zovemo prijedlozi za čavrljanje. Ti se gumbi pojavljuju nakon svakog odgovora tvrtke Copilot i nude predložene upite za nastavak razgovora u sklopu iskustva čavrljanja. Prijedlozi za čavrljanje prikazuju se uz sažeti sadržaj na stranici s rezultatima pretraživanja kao ulazna točka za iskustvo čavrljanja.
Copilot u tražilici Bing korisnicima omogućuje i stvaranje priča, pjesama, pjesama i slika uz pomoć tražilice Bing. Kada Copilot u tražilici Bing otkrije namjeru korisnika da generira kreativni sadržaj (na primjer, upit počinje s "write me a ..."), sustav će u većini slučajeva generirati sadržaj responzivan na korisnikov upit. Slično tome, kada Copilot u tražilici Bing otkrije namjeru korisnika da generira sliku (na primjer, upit počinje s "nacrtaj mi ..."), sustav će u većini slučajeva generirati sliku koja odgovara korisniku. U okruženju vizualnog pretraživanja u čavrljanju, uz sliku koju je snimila korisnikov fotoaparat, prenesena s korisnikov uređaja ili povezana s weba, korisnici mogu zatražiti da Copilot u tražilici Bing razumije kontekst, protumači i odgovori na pitanja o slici. Korisnici također mogu prenijeti svoje datoteke na Copilot radi obrade, pretvorbe, obrade ili izračuna informacija od njih. U Microsoft Designer iskustvo da korisnici mogu pristupiti putem Copilot u tražilici Bing, korisnici ne samo da mogu generirati slike pomoću upita, ali i promijeniti im veličinu ili ponovno stil, ili napraviti izmjene kao što su zamućenja pozadine ili stvaranje boje življe.
Korisnici s Microsoftovim računima (MSA) sada imaju i mogućnost pretplate na Copilot Pro koji nudi poboljšano iskustvo, uključujući ubrzane performanse i brže stvaranje slika AI. Copilot Pro je trenutno dostupna u ograničenim državama i planiramo da Copilot Pro uskoro bude dostupno na više tržišta.
Dodatne informacije o Copilot Pro potražite ovdje.
Copilot u tražilici Bing nastoji pružiti različite i sveobuhvatne rezultate pretraživanja uz svoju predanost slobodnom i otvorenom pristupu informacijama. U isto vrijeme, naši napori u pogledu kvalitete proizvoda uključuju rad na izbjegavanju nehotice promicanje potencijalno štetnih sadržaja korisnicima. Dodatne informacije o načinu na koji Bing rangi sadržaj, uključujući način na koji definira relevantnost, kvalitetu i kredibilitet web-stranice, dostupne su u "Smjernicama za administratore tražilice Bing". Dodatne informacije o načelima moderacije sadržaja tražilice Bing dostupne su u odjeljku "Kako Bing isporučuje rezultate pretraživanja".
U Copilot u sustavu Windows iskustvo rada Copilot u tražilici Bing operacijskom sustavu Windows može pružati specifične vještine specifične za Windows, kao što su promjena korisničke teme ili pozadine te promjena postavki kao što su zvuk, Bluetooth i mreža. Ta iskustva korisniku omogućuju konfiguriranje postavki i poboljšavanje korisničkog iskustva pomoću upita na prirodnom jeziku za LLM. Funkcije specifične za aplikaciju mogu se pružati i iz dodataka za aplikacije drugih proizvođača. Oni mogu automatizirati zadatke koji se ponavljaju i postići veću učinkovitost korisnika. Budući da LLMs povremeno može napraviti pogreške, odgovarajuće korisničke potvrde upiti su navedeni tako da je korisnik konačni arbitar promjena koje se mogu izvršiti.
Prepoznavanje, mjerenje i ublažavanje rizika
Kao i druge tehnologije transformacije, iskorištavanje prednosti AI-ja nije bez rizika, a temeljni dio Microsoftova programa Odgovorna AI osmišljena je tako da identificira potencijalne rizike, mjeri njihovu sklonost da se dogodi i izradi ublažavanja kako bi ih se rješavala. Vođeni našim načelima AI i našim odgovornim standardom AI, nastojali smo prepoznati, mjeriti i ublažiti potencijalne rizike i zloupotrebu sustava Copilot u tražilici Bing uz istodobno osiguravanje transformativnih i korisnih načina korištenja koje pruža novo iskustvo. U odjeljcima u nastavku opisujemo naš iterativni pristup za prepoznavanje, mjerenje i ublažavanje potencijalnih rizika.
Na razini modela naš je rad započeo istraživanjem analiza GPT-4 krajem ljeta 2022. To je uključivalo opsežno testiranje crvenog tima u suradnji s tvrtkom OpenAI. Ovo je testiranje osmišljeno za procjenu kako će najnovija tehnologija funkcionirati bez dodatnih zaštitnih mjera koje su na nju primijenjene. Naša konkretna namjera u ovom trenutku bila je proizvesti štetne odgovore, otkriti potencijalne načine zlouporabe i identificirati mogućnosti i ograničenja. Naša kombinirana učenja u programima OpenAI i Microsoft pridonijela su napretku u razvoju modela i, za nas u Microsoftu, informirale su naše razumijevanje rizika i pridonijele ranim strategijama ublažavanja rizika za Copilot u tražilici Bing.
Osim testiranja crvenog tima na razini modela, multidisciplinarni tim stručnjaka provodio je brojne krugove testiranja crvenog tima na razini aplikacije na Copilot u tražilici Bing AI iskustvima prije nego što su javno dostupni u našem ograničenom pretpregledu izdanja. Taj nam je proces pomogao da bolje razumijemo kako suparnički akteri mogu iskoristiti sustav i da poboljšamo naše mjere ublažavanja. Testeri stresa koji nisu suparnici također su opsežno procijenili nove značajke tražilice Bing na nedostatke i ranjivosti. Nakon izdavanja, nova AI iskustva u tražilici Bing integrirana su u postojeću proizvodnu infrastrukturu za mjerenje i testiranje inženjerske organizacije Bing. Primjerice, testeri crvenog tima iz različitih regija i pozadina neprekidno i sustavno pokušavaju ugroziti sustav, a njihovi se nalazi koriste za proširenje skupova podataka koje Bing koristi za poboljšanje sustava.
Testiranje crvenog tima i testiranje otpornosti na stres mogu na površinu imati određene rizike, ali u produkcijskom će korisnici imati milijune različitih vrsta razgovora s Copilot u tražilici Bing. Osim toga, razgovori su više puta i kontekstni, a prepoznavanje štetnog sadržaja unutar razgovora složen je zadatak. Da bismo bolje razumjeli i riješili potencijal za rizike u iskustvima s AI-jem u sustavu Copilot u tražilici Bing razvili smo dodatne odgovorne metrike AI-ja specifične za ta nova iskustva za AI za mjerenje potencijalnih rizika kao što su bjekstvo iz zatvora, štetan sadržaj i neutemeljenog sadržaja. Također smo omogućili mjerenje na skali putem djelomično automatiziranih mjernih kanala. Svaki put kada se proizvod promijeni, ažuriraju se postojeća ublažavanja ili se predlažu nove mjere ublažavanja, ažuriramo naše mjerne kanale da bismo procijenili performanse proizvoda i metriku odgovornog AI-ja.
Kao ilustrativna primjer, ažurirani djelomično automatizirani mjerni kanal za štetan sadržaj obuhvaća dvije glavne inovacije: simulaciju razgovora i automatiziranu primjedbu razgovora koju je potvrdio čovjek. Najprije su odgovorni stručnjaci za AI izgradili predloške za bilježenje strukture i sadržaja razgovora koji mogu rezultirati različitim vrstama štetnih sadržaja. Ti su predlošci potom dani razgovornom agentu koji je komunicirao kao hipotetski korisnik s Copilot u tražilici Bing, generirajući simulirane razgovore. Da bismo utvrdili sadrže li ti simulirani razgovori štetan sadržaj, koristili smo smjernice koje obično koriste stručni lingvetičari za označavanje podataka i njihovo mijenjanje za korištenje u programu GPT-4 radi označavanja razgovora na razini, sužavanje smjernica dok se ne postigne značajan dogovor između razgovora označenih modelom i razgovora s oznakom ljudi. Naposljetku, koristili smo razgovore s oznakom modela za izračun odgovorne metrike AI-ja koja bilježi učinkovitost Copilot u tražilici Bing umanjivanja štetnog sadržaja.
Naši mjerni kanali omogućuju nam brzo mjerenje potencijalnih rizika na skali. Kako tijekom razdoblja pretpregleda i tekućeg testiranja crvenog tima utvrđujemo nove probleme, nastavljamo proširivanje skupova mjera radi procjene dodatnih rizika.
Kao što smo utvrdili potencijalne rizike i zloupotrebu kroz procese kao što su testiranje crvenog tima i testiranje otpornosti na stres te smo ih mjerili pomoću gore navedenih inovativnih pristupa, razvili smo dodatna ublažavanja za one koji se koriste za tradicionalno pretraživanje. U nastavku opisujemo neka od tih ublažavanja. Nastavit ćemo pratiti iskustva Copilot u tražilici Bing AI radi poboljšanja performansi i ublažavanja proizvoda.
Postupno izdanje, kontinuirana procjena. Predani smo neprekidnom učenju i poboljšanju našeg pristupa odgovornom AI-ju dok se naše tehnologije i ponašanje korisnika razvijaju. Naša strategija inkrementalnog izdanja temeljni je dio načina na koji sigurno premještamo našu tehnologiju iz laboratorija u svijet i predano radimo na namjernom, promišljenom procesu kako bismo osigurali prednosti Copilot u tražilici Bing. Ograničavanje broja osoba s pristupom tijekom razdoblja pretpregleda omogućuje nam otkrivanje načina na koji korisnici koriste Copilot u tražilici Bing, uključujući način na koji ga korisnici mogu zloupotrebljavati, pa možemo pokušati ublažiti nove probleme prije šireg izdanja. Na primjer, od korisnika zahtijevamo provjeru autentičnosti pomoću microsoftova računa prije pristupanja potpunom novom okruženju tražilice Bing. Neautorizirani korisnici mogu pristupiti samo ograničenom pretpregledu iskustva. Ti koraci obeshrabruju zloupotrebu i pomažu nam (prema potrebi) poduzeti odgovarajuće radnje kao odgovor na kršenja Kodeksa ponašanja. Svakodnevno mijenjamo postavke Copilot u tražilici Bing poboljšanja performansi proizvoda, poboljšanja postojećih ublažavanja i implementacije novih ublažavanja kao odgovor na naša učenja tijekom razdoblja pretpregleda.
Uzemli u rezultatima pretraživanja. Kao što je prethodno Copilot u tražilici Bing, program je osmišljen tako da pruža odgovore koje informacije u rezultatima pretraživanja weba podržavaju kada korisnici traže informacije. Sustav, primjerice, sadrži tekst iz najboljih rezultata pretraživanja i upute putem metaprompta da bi se odgovor na njega temeljio. Međutim, u sažetku sadržaja s weba, Copilot u tražilici Bing može uvrstiti informacije u odgovor koji ne postoji u ulaznim izvorima. Drugim riječima, može proizvesti neutemeljene rezultate. Naše su rane procjene pokazale da neuutemeirani rezultati čavrljanja mogu biti prevladavajući za određene vrste upita ili tema od drugih, kao što su upit za matematičke izračune, financijske informacije ili informacije o tržištu (na primjer, zarada tvrtke, podaci o performansama dionica) i informacije kao što su točni datumi događaja ili određene cijene stavki. Korisnici bi uvijek trebali biti oprezni i koristiti najbolje rezultate prilikom pregledavanja sažetih rezultata pretraživanja, bilo na stranici s rezultatima pretraživanja ili u iskustvu čavrljanja. Poduzeli smo nekoliko mjera za ublažavanje rizika da se korisnici mogu preusmjeravanja na neutemeljenog generiranog sadržaja u scenarijima sažimanja i iskustvima čavrljanja. Na primjer, odgovori u Copilot u tražilici Bing koji se temelje na rezultatima pretraživanja obuhvaćaju reference na izvorišna web-mjesta za korisnike da bi potvrdili odgovor i saznali više. Korisnicima se pruža i eksplicitna obavijest da komuniciraju sa sustavom AI i savjetuje se da provjere materijale izvora rezultata za web kako bi im pomogli pri upotrebi najbolje procjene.
Klasifikatori utemeljeni na AI-ju i metaupiti za ublažavanje potencijalnih rizika ili zloupotrebe. Upotreba LLM-ova može proizvesti problematični sadržaj koji može dovesti do rizika ili zloupotrebe. Primjeri mogu uključivati rezultate koji se odnose na samoozljeđivanje, nasilje, eksplicitan sadržaj, intelektualno vlasništvo, netočne informacije, govor mržnje ili tekst koji bi se mogao odnositi na nezakonite aktivnosti. Klasifikatori i metaupiti dva su primjera ublažavanja koja su implementirana u Copilot u tražilici Bing kako bi se smanjio rizik od tih vrsta sadržaja. Klasifikatori klasificiraju tekst da bi označili različite vrste potencijalno štetnih sadržaja u upitima za pretraživanje, upitima za čavrljanje ili generiranim odgovorima. Bing koristi klasifikatelje utemeljene na AI-ju i filtre sadržaja koji se odnose na sve rezultate pretraživanja i relevantne značajke; smislili smo dodatne alate za klasifikaciju upita i filtre sadržaja koji su posebno namijenjeni rješavanju mogućih rizika koje Copilot u tražilici Bing značajke. Zastavice dovode do potencijalnih ublažavanja, kao što su ne vraćanje generiranog sadržaja korisniku, preusmjeravanje korisnika na drugu temu ili preusmjeravanje korisnika na tradicionalno pretraživanje. Metaupiti uključuju davanje uputa modelu kako bi vodili njegovo ponašanje, uključujući tako da se sustav ponaša u skladu s Microsoftovim načelima umjetne inteligencije i očekivanjima korisnika. Metapropt, primjerice, može sadržavati crtu kao što je "komunikacija na korisnikov jezik izbora".
Zaštita privatnosti u vizualnom pretraživanju u Copilot u tražilici Bing. Kada korisnici prenesite sliku kao dio upita za čavrljanje, Copilot u tražilici Bing će koristiti tehnologiju zamućivanja lica prije slanja slike UI modelu. Zamućeno lice koristi se za zaštitu privatnosti pojedinaca na slici. Tehnologija zamućivanja lica oslanja se na kontekstne tragove da bi odredila gdje se zamutiti i pokušat će zamutiti sva lica. Kada su lica zamućena, model AI može usporediti unesenu sliku s onima javno dostupnih slika na internetu. Zbog toga, primjerice, Copilot u tražilici Bing može prepoznati poznatog košarkaša s fotografije tog igrača na košarkaškom igralištu stvaranjem brojčanog prikaza koji odražava broj dresa igrača, boju dresa, prisutnost košarkaškog obruča itd. Copilot u tražilici Bing ne pohranjuje brojčane prikaze osoba iz prenesenih slika i ne dijeli ih s trećim stranama. Copilot u tražilici Bing koristi brojčane prikaze slika koje korisnici prenose samo radi odgovaranja na upite korisnika, a zatim se brišu u roku od 30 dana nakon što čavrljanje završi.
Ako korisnik zatraži Copilot u tražilici Bing informacije o prenesenoj slici, odgovori na čavrljanje mogu odražavati utjecaj zamućenja lica na mogućnost modela da pruži informacije o prenesenoj slici. Primjerice, Copilot u tražilici Bing može nekoga opisati kao zamućeno lice.
Ograničavanje pomaka razgovora. Tijekom razdoblja pretpregleda saznali smo da vrlo duge sesije čavrljanja mogu rezultirati odgovorima koji su ponavljajući, nepomoću ili nedosljedni s Copilot u tražilici Bing je namijenjen ton. Da bismo riješili taj pomak razgovora, ograničili smo broj okreta (burze koje sadrže i korisničko pitanje i odgovor od Copilot u tražilici Bing) po sesiji čavrljanja. Nastavljamo s procijenite dodatne pristupe za ublažavanje tog problema.
Prompt obogaćivanje. U nekim slučajevima korisnikov upit može biti dvosmislen. Kada se to dogodi, Copilot u tražilici Bing koristiti LLM da bi vam pomogao u sastavljanju dodatnih pojedinosti u upitu da bi korisnici dobili odgovor koji traže. Takvo promptno obogaćivanje ne odnosi se ni na koje znanje o korisniku ni njihovim prethodnim pretraživanjima, već na modelu AI. Ti će revidirani upiti biti vidljivi u korisnikove povijesti čavrljanja, a, kao i u drugim pretraživanjima, mogu se izbrisati pomoću kontrola u proizvodu.
Korisnički centrirani dizajn i intervencije korisničkog iskustva. Korisnički centrirani dizajn i korisnička iskustva ključni su aspekt Microsoftova pristupa odgovornoj AI-u. Cilj je ukorijeniti dizajn proizvoda u potrebama i očekivanjima korisnika. Kako korisnici prvi put komuniciraju Copilot u tražilici Bing s programom Copilot u tražilici Bing, nudimo razne dodirne točke osmišljene da bi bolje razumjeli mogućnosti sustava, otkrivali im da Copilot u tražilici Bing omogućuje AI te da komuniciraju ograničenjima. Iskustvo je osmišljeno na taj način da bi korisnicima pomoglo da na najbolji Copilot u tražilici Bing i minimiziraju rizik od overreliance. Elementi iskustva korisnicima pomažu i da bolje razumiju Copilot u tražilici Bing i interakcije s tim okruženjem. To obuhvaća prijedloge za čavrljanje specifične za odgovornu AI (na primjer, kako Bing koristi AI? Zašto ne možete Copilot u tražilici Bing na neke teme?), objašnjenja ograničenja, načini na koje korisnici mogu saznati više o načinu na koji sustav funkcionira i prijavljivati povratne informacije te jednostavno pomičite reference koje se prikazuju u odgovorima da bi korisnicima prikazali rezultate i stranice na kojima su odgovori uzemni.
Sve otkrivanje. Copilot u tražilici Bing pruža nekoliko dodirnih točka za smisleno otkrivanje AI-ja kada se korisnici obavještavaju o interakciji sa sustavom AI, kao i prilike za dodatne informacije o Copilot u tražilici Bing. Osnaživanje korisnika ovim znanjem može im pomoći da izbjegnu pretjerano oslanjanje na umjetnu inteligenciju i saznaju više o prednostima i ograničenjima sustava.
Medijsko dokazanje.Microsoft Designer je omogućio značajku "Vjerodajnice za sadržaj" koja koristi kriptografske metode za označavanje izvora ili "provenance" svih slika koje generira AI stvorene na Designer. Nevidljiva digitalna značajka vodenog žiga prikazuje izvor, vrijeme i datum izvornog stvaranja, a te informacije nije moguće izmijeniti. Tehnologija koristi standarde koje je postavili Koalicija za sadržaj i autentičnost (C2PA) kako bi dodala dodatni sloj povjerenja i transparentnosti za slike koje generira AI. Microsoft je suotečatelj C2PA-e i pridonio je osnovnoj tehnologiji dokaza o digitalnom sadržaju.
Uvjeti korištenja i kodeks ponašanja. Ovaj resurs upravlja korištenjem kopilota u tražilici Bing. Korisnici bi se trebali pridržavati Uvjeta korištenja i Kodeksa ponašanja, koji ih, između ostalih, obavještava o dopuštenim i dopuštenim načinima upotrebe i posljedicama kršinja uvjeta. Uvjeti korištenja korisnicima nude i dodatna otkrivanja te služe kao praktična referenca korisnicima za učenje o Copilot u tražilici Bing.
Operacije i brzi odgovor. Koristimo i tekuće praćenje i operativne procese tvrtke Copilot u tražilici Bing kako bismo riješili problem kada Copilot u tražilici Bing primi signale ili primi izvješće u kojem se navodi moguća zloupotreba ili kršenja Uvjeta korištenja ili Kodeksa ponašanja.
Povratne informacije, nadzor i nadzor. Iskustvo Copilot u tražilici Bing nadohovi na postojeće alate koji korisnicima omogućuju slanje povratnih informacija i izvješća o problemima, koje pregledaju Microsoftovi operativni timovi. Radni procesi tražilice Bing proširili su se i da bi obuhvatili značajke u sklopu sučelja sustava Copilot u tražilici Bing, na primjer, ažuriranje stranice Izvješće o problemu radi uvrštavanja novih vrsta sadržaja koje korisnici generiraju uz pomoć modela.
Naš pristup prepoznavanju, mjerenju i ublažavanju rizika nastavit će se razvijati dok iramo više, a već poboljšavamo na temelju povratnih informacija prikupljenih tijekom razdoblja pretpregleda.
Automatsko otkrivanje sadržaja. Kada korisnici prenose slike u sklopu upita za čavrljanje, Copilot u tražilici Bing implementira alate za otkrivanje dječjeg seksualnog iskorištavanja i zlostavljanja slika (CSEAI), što je osobito tehnologija koja se podudara s raspršivanjem PhotoDNA. Microsoft je razvio PhotoDNA da bi pomogao pronaći duplikate poznatih CSEAI-ja. Microsoft prijavljuje sve očite CSEAI-je u Nacionalni centar za nestalu i zlostavljanju djecu (NCMEC) prema zakonu SAD-a. Kada korisnici prenose datoteke radi analize ili obrade, Copilot implementira automatizirani pregled radi otkrivanja sadržaja koji može dovesti do rizika ili zloupotrebe, kao što je tekst koji se može odnositi na nezakonite aktivnosti ili zlonamjerni kod.
Zaštita privatnosti
Microsoftovo dugogodišnje uvjerenje da je zaštita privatnosti temeljno ljudsko pravo obavijestila je svaku fazu Microsoftova razvoja i implementacije Copilot u tražilici Bing iskustva. Naše obveze zaštite privatnosti svih korisnika, uključujući pružanje transparentnosti i kontrole nad svojim podacima i integriranje privatnosti dizajnom putem minimizacije podataka i ograničenja svrhe, temeljne su za Copilot u tražilici Bing. Kako razvijamo naš pristup pružanju Copilot u tražilici Bing korisničkog iskustva korisnika, neprekidno ćemo istraživati kako najbolje zaštititi privatnost. Ovaj će se dokument ažurirati kako to radimo. Dodatne informacije o tome kako Microsoft štiti privatnost naših korisnika dostupne su u Microsoftovoj izjavi o zaštiti privatnosti.
U Copilot u sustavu Windows iskustva vještine sustava Windows mogu, u sklopu svojih funkcija, zajednički koristiti korisničke podatke s razgovorom u čavrljanju. To je podložno odobrenju korisnika i prikazuju se upiti korisničkog sučelja da bi se potvrdila korisnička namjera prije zajedničkog korištenja korisničkih podataka s razgovorom u čavrljanju.
Microsoft i dalje smatra da su potrebe djece i mladih dio procjene rizika novih generativne značajke AI-ja u Copilot u tražilici Bing. Svi Microsoftovi računi za djecu koji korisnika identificiraju kao mlađe od 13 godina ili na neki drugi način određeni u skladu s lokalnim zakonima ne mogu se prijaviti da bi pristupili potpunom novom okruženju tražilice Bing.
Kao što je prethodno opisano, za sve korisnike koje smo implementirale zaštitne mjere kojima se umanji potencijalno štetan sadržaj. U Copilot u tražilici Bing rezultati su postavljeni kao u strogom načinu rada sigurnog pretraživanja na servisu Bing, koji ima najvišu razinu zaštite sigurnosti u glavnom pretraživanju tražilice Bing, čime se korisnicima, uključujući teen korisnike, onemoguće da se izlože potencijalno štetnom sadržaju. Osim informacija koje smo naveli u ovom dokumentu i u najčešćim pitanjima o značajkama čavrljanja, dodatne informacije o tome kako Copilot u tražilici Bing radi na izbjegavanju odgovora neočekivanim uvredljivim sadržajem u rezultatima pretraživanja dostupne su ovdje.
Microsoft se obvezao da neće isporučivati personalizirano oglašavanje na temelju ponašanja na mreži djeci čiji datum rođenja na microsoftovu računu označava da su mlađa od 18 godina. Ta će se važna zaštita proširiti na oglase u Copilot u tražilici Bing značajkama. Korisnici mogu vidjeti kontekstne oglase na temelju upita ili upita koji se koriste za interakciju s tražilicom Bing.
Da bismo otključali transformativni potencijal generiranja AI-ja, moramo izgraditi povjerenje u tehnologiju osnaživanjem pojedinaca da razumiju kako se njihovi podaci koriste i dajući im smislene izbore i kontrole nad njihovim podacima. Copilot u tražilici Bing namijenjen je određivanju prioriteta agencije za ljudske korisnike pružanjem informacija o načinu na koji proizvod funkcionira te ograničenjima te širenjem robusnih potrošačkih odabira i kontrola na Copilot u tražilici Bing značajke.
Microsoftova izjava o zaštiti privatnosti pruža informacije o našim transparentnim praksama zaštite privatnosti za zaštitu naših korisnika te se navode informacije o kontrolama koje našim korisnicima omogućuju prikaz svojih osobnih podataka i upravljanje njima. Da bi korisnici imali potrebne informacije prilikom interakcije s novim značajkama razgovora na tražilici Bing, objave u proizvodu obavještavaju korisnike da su u vezi s AI proizvodom, a nudimo veze na dodatna najčešća pitanja i objašnjenja o načinu na koji te značajke funkcioniraju. Microsoft će nastaviti slušati povratne informacije korisnika i dodat će dodatne pojedinosti o značajkama razgovora tražilice Bing kako bi po potrebi potakla razumijevanje načina na koji proizvod funkcionira.
Microsoft svojim korisnicima nudi i robusne alate za ostvarivanje svojih prava nad svojim osobnim podacima. Za podatke koje prikuplja Copilot u tražilici Bing, uključujući putem korisničkih upita i upita, Microsoftova nadzorna ploča za zaštitu privatnosti omogućuje autoriziranim (prijavljenim) korisnicima alate za ostvarivanje svojih prava ispitanika, uključujući pružanjem korisnicima mogućnost prikaza, izvoza i brisanja pohranjene povijesti razgovora. Microsoft i dalje prima povratne informacije o tome kako želi upravljati novim okruženjem servisa Bing, uključujući korištenjem okruženja za upravljanje podacima u kontekstu.
Copilot u tražilici Bing također počasti zahtjevima prema europskom pravu na zaborav, nakon postupka koji je Microsoft razvio i sužavao za tradicionalne funkcije pretraživanja tražilice Bing. Svi korisnici ovdje mogu prijaviti probleme u vezi s generiranim sadržajem i odgovorima, a naši europski korisnici mogu koristiti ovaj obrazac za slanje zahtjeva za blokiranje rezultata pretraživanja u Europi s pravom na zaborav.
Copilot u tražilici Bing će poštovati korisnikove mogućnosti zaštite privatnosti, uključujući one koje su prethodno dostupne u tražilici Bing, kao što je pristanak za prikupljanje i korištenje podataka koji se traži putem natpisa i kontrola kolačića dostupnih na Microsoftovoj nadzornoj ploči za zaštitu privatnosti. Da bismo omogućili samostalnost korisnika i agenciju u donošenju informiranih odluka, upotrebljavali smo interni postupak pregleda da bismo pažljivo pregledali način na koji se korisnicima prikazuju odabiri.
Uz kontrole dostupne putem Microsoftove nadzorne ploče za zaštitu privatnosti, koje korisnicima omogućuju prikaz, izvoz i brisanje povijesti pretraživanja, uključujući komponente povijesti čavrljanja, provjereni korisnici koji su omogućili značajku povijest čavrljanja u proizvodu imaju mogućnost pregledavanja povijesti čavrljanja, pristupanja povijesti čavrljanja i preuzimanja putem kontrola u proizvodu. Korisnici mogu izbrisati određena čavrljanja iz povijesti čavrljanja ili u cijelosti isključiti funkciju povijest razgovora tako da posjete stranicu Postavke tražilice Bing. Korisnici također mogu odabrati želite li personalizaciji dopustiti pristup prilagođenijim iskustvima s personaliziranim odgovorima. Korisnici u bilo kojem trenutku mogu odustati od personalizacije u postavkama čavrljanja na stranici Postavke tražilice Bing. Brisanje određenih čavrljanja iz povijesti čavrljanja onemogunjuje njihovo korištenje za personalizaciju. pitanja.
Dodatne informacije o povijesti čavrljanja i personalizaciji dostupne su korisnicima Copilot u tražilici BingCopilot u tražilici Bing je ugrađena u zaštitu privatnosti, tako da se osobni podaci prikupljaju i koriste samo po potrebi i da se zadržavaju ne dulje nego što je potrebno. Kao što je već spomenuto, značajka vizualnog pretraživanja u sustavu Copilot u tražilici Bing implementira mehanizam koji zamući lica na slikama u trenutku prijenosa korisnika, tako da se slike lica ne obrađuju ni ne pohranjuju. Dodatne informacije o osobnim podacima koje Bing prikuplja, načinu na koji se upotrebljavaju te načinu na koji se pohranjuju i brišu dostupne su u Microsoftovoj izjavi o zaštiti privatnosti, koja sadrži i informacije o novim značajkama čavrljanja tražilice Bing.
Kopilot na servisu Bing ima pravilnike o zadržavanju i brisanju podataka da bi se osiguralo da se osobni podaci prikupljeni putem značajki čavrljanja tražilice Bing čuvaju samo koliko god je to potrebno.
Nastavit ćemo učiti i razvijati naš pristup u pružanju Copilot u tražilici Bing-a i kao što to radimo nastavit ćemo raditi u različitim disciplinama radi usklađivanja inovacija za AI s ljudskim vrijednostima i temeljnim pravima, uključujući zaštitu mladih korisnika i privatnost.
Copilot s komercijalnom zaštite podataka
Copilot s komercijalnom zaštitu podataka, prijašnjeg naziva Bing Chat Enterprise ("BCE"), objavio je Microsoft u besplatnom javnom pretpregledu u srpnju 2023. kao besplatan dodatak za određene korisnike M365. Copilot s komercijalnom zaštitu podataka sučelje je za pretraživanje weba koje poboljšava AI za krajnje korisnike u velikim tvrtkama.
Kao i Copilot u tražilici Bing, kada Copilot s krajnjim korisnikom komercijalne zaštite podataka u sučelje uđe upit, upit, neposredni razgovor, najbolji rezultati pretraživanja i metapropt šalju se kao unosi u LLM. Model generira odgovor pomoću povijesti upita i neposrednih razgovora radi kontekstnog definiranja zahtjeva, metaprompta radi usklađivanja odgovora s načelima Microsoftovih AI-ja i očekivanjima korisnika te rezultata pretraživanja na temelju odgovora na temelju postojećeg sadržaja visokog ranga s weba. To funkcionira na isti način kao i Copilot na servisu Bing kao što je prethodno opisano u ovom dokumentu, uz iznimku da se Copilot s komercijalnom zaštitu podataka oslanja samo na trenutnu povijest razgovora (ne povijest nedavnih razgovora) jer pohranjena povijest čavrljanja nije trenutno podržana značajka. Designer i vizualno pretraživanje sada su dostupni u ovoj verziji.
Kao i druge tehnologije transformacije, iskorištavanje prednosti AI-ja nije bez rizika, a temeljni dio Microsoftova programa Odgovorna AI osmišljena je tako da identificira potencijalne rizike, mjeri njihovu sklonost da se dogodi i izradi ublažavanja kako bi ih se rješavala. Ponovno, gore navedeni opis Microsoftovih napora za utvrđivanje, mjerenje i ublažavanje potencijalnih rizika za Copilot u tražilici Bing odnose se i na ovu verziju, uz neka pojašnjenja o ublažavanjima koja su opisana u nastavku:
Postupno izdanje, kontinuirana procjena. Slično kao i kod kopilota Bing, za Copilot s komercijalnom zaštitu podataka također smo poduzeli inkrementalni pristup izdanju. 18. srpnja 2023., Copilot s komercijalnom zaštitu podataka postao je dostupan kao besplatan pretpregled za kvalificirane poslovne korisnike s određenim računima M365 da bi se uključio za krajnje korisnike u velikim tvrtkama. Trideset (30) dana nakon obavješćivanja kvalificiranih poslovnih klijenata, Copilot s komercijalnom zaštitu podataka postao je "zadan" za te iste korisnike. Copilot s komercijalnom zaštitu podataka također je postao dostupan za određene nastavničko nastavničko M365 račune. Copilot s komercijalnom zaštitu podataka postao je općenito dostupan određenim poslovnim korisnicima 1. prosinca 2023. U budućnosti planiramo proširiti pristup tvrtki Copilot s komercijalnom zaštite podataka na Microsoft Entra ID korisnika.
Uvjeti korištenja i kodeks ponašanja. Krajnji korisnici tvrtke Copilot s komercijalnom zaštitu podataka moraju se pridržavati uvjeta korištenja krajnjeg korisnika. Ovi Uvjeti korištenja obavještavaju krajnje korisnike o dopuštenim i nedopusti dostupnim načinima korištenja i posljedicama kršijućih uvjeta.
Operacije i brzi odgovor. Koristimo i tekuće praćenje i operativne procese tvrtke Copilot u tražilici Bing da bismo riješili problem kada Copilot s komercijalnom zaštitu podataka prima signale ili prima izvješće koje upućuje na moguću zloupotrebu ili kršenje uvjeta korištenja krajnjeg korisnika.
Povratne informacije, nadzor i nadzor. Copilot s komercijalnom zaštitom podataka koristi isto alat kao i Copilot u tražilici Bing korisnicima za slanje povratnih informacija i izvješća o problemima koje pregledaju Microsoftovi operativni timovi. Copilot u tražilici Bing su se i operativni procesi proširili da bi se značajke u tvrtki Copilot prilagodile okruženjima za zaštitu komercijalnih podataka, na primjer, ažuriranje stranice Izvješće o problemu radi uvrštavanja novih vrsta sadržaja koje korisnici generiraju uz pomoć modela.
Da bi krajnji korisnici imali potrebne informacije prilikom interakcije sa sustavom Copilot s komercijalnom zaštitu podataka, pri dnu ovog dokumenta dostupna je dokumentacija o proizvodu, uključujući najčešća pitanja i stranice Dodatne informacije.
Upiti i odgovori koje generiraju krajnji korisnici u tvrtki Copilot s komercijalnom zaštitu podataka obrađuju se i pohranjuju u skladu sa standardima obrade podataka u tvrtki. Kopilot s komercijalnom ponudom zaštite podataka trenutno je dostupan samo poslovnim korisnicima i njihovim autoriziranim krajnjim korisnicima odraslih, stoga ne očekujemo da će djeca ili mladi korisnici tvrtke Copilot u ovom trenutku imati komercijalnu zaštitu podataka. Osim toga, Copilot s komercijalnom zaštitu podataka krajnjim korisnicima ne pruža oglase ciljane na ponašanje. Umjesto toga, svi prikazani oglasi samo su kontekstualno relevantni oglasi.
Saznajte više
Ovaj je dokument dio šireg nastojanja Microsofta da uvježba naša načela AI-ja. Dodatne informacije potražite u članku:
Microsoftov pristup odgovornoj AI-u
Microsoft's Responsible AI Standard
O ovom dokumentu
© Microsoft 2023. Sva prava pridržana. Ovaj se dokument nalazi u "trenutnom obliku" i samo u informativne svrhe. Informacije i prikazi izraženi u ovom dokumentu, uključujući URL i druge reference na internetsko web-mjesto, mogu se promijeniti bez prethodne obavijesti. Vi snosite rizik korištenja. Neki su primjeri samo za ilustraciju i fiktivni. Nije predviđeno stvarno pridruživanje niti se može zaključiti.