Pierakstīties, izmantojot Microsoft
Pierakstīties vai izveidot kontu
Sveicināti!
Atlasīt citu kontu.
Jums ir vairāki konti
Izvēlieties kontu, ar kuru vēlaties pierakstīties.

Pēdējoreiz atjaunināts 2024. gada februārī

Pamatinformācija par Copilot produktā Bing   

Ievads  

2023. gada februārī korporācija Microsoft palaiž jauno Bing — AI uzlabotu tīmekļa meklēšanas pieredzi. Tas atbalsta lietotājus, apkopojot tīmekļa meklēšanas rezultātus un nodrošinot tērzēšanas pieredzi. Lietotāji var arī ģenerēt radošu saturu, piemēram, dzejoļus, anekdotes, stāstus un, izmantojot Bing Attēlu veidotājs attēlus. Jaunā AI uzlabotā Bing darbojas dažādās uzlabotās tehnoloģijās, ko nodrošina Microsoft un OpenAI, tostarp GPT-4, moderns lielas valodas modelis (llM) un DALL-E — padziļināts mācību modelis digitālu attēlu ģenerēšanai no dabiskajiem valodu aprakstiem, ko nodrošina OpenAI. Mēs strādājām ar abiem modeļiem mēnešiem pirms publiskā laidiena, lai izstrādātu pielāgotu iespēju un paņēmienu kopu, lai savienotu šo jaunāko AI tehnoloģiju un meklēšanu tīmeklī jaunajā Bing.  2023. gada novembrī Microsoft jauno Bing nosaukumu nopārdēvēja par Copilot lietojumprogrammā Bing.

Korporācija Microsoft ļoti nopietni apņemas atbildīgs pret AI. Copilot in Bing pieredze ir izstrādāta saskaņā ar Microsoft AI principiem, Microsoft atbildīgu AI standartu un sadarbojoties ar atbildīgajiem AI ekspertiem visā uzņēmumā, ieskaitot Microsoft atbildīgu AI Office, mūsu tehniskās grupas, Microsoft Research un Aether. Papildinformāciju par atbildīgu AI varat iegūt vietnē Microsoft šeit.  

Šajā dokumentā aprakstīta mūsu pieeja, kā atbildīgs AI par Copilot lietojumprogrammā Bing. Pirms izlaišanas mēs esam izmantojusi labākās metodes, lai identificētu, izmērītu un mazinātu potenciālos riskus un sistēmas ļaunprātīgu izmantošanu un nodrošinātu lietotājiem tās priekšrocības. Kā mēs turpinām attīstīt Copilot programmā Bing kopš pirmās izlaistās, mēs turpinām apgūt un uzlabot mūsu atbildošo inimitēšanas darbību. Šis dokuments tiks periodiski atjaunināts, lai informētu par mūsu pilnveidotajiem procesiem un metodēm.   

Galvenie termini  

Copilot in Bing ir AI uzlabotas meklēšanas iespējas tīmeklī. Tā kā tā darbojas ar jaudīgu un jaunu tehnoloģiju, mēs sākam ar dažu galveno terminu definēšanu.  

Mašīnmācības modeļi, kas palīdz kārtot datus atzīmētās informācijas klasēs vai kategorijās. Līdzpilotā Bing viens no veidiem, kā izmantojam klasifikatorus, ir palīdzēt noteikt potenciāli kaitīgu saturu, ko iesniedz lietotāji vai ģenerē sistēma, lai mazinātu šī satura paaudžu un sistēmas ļaunprātīgu izmantošanu vai ļaunprātīgu izmantošanu. 

Copilot in Bing is grounded in web search results when users are seeking information. Tas nozīmē, ka mēs centrējam atbildi, kas tiek sniegta lietotāja vaicājumam vai uzvednei par augsta ranga saturu no tīmekļa, un mēs nodrošinām saites uz tīmekļa vietnēm, lai lietotāji varētu uzzināt vairāk. Bing nosaka tīmekļa meklēšanas satura rangu, jo ir ļoti svarīgi tādi līdzekļi kā atbilstība, kvalitāte un uzticamība, kā arī svaigums. Mēs šos jēdzienus detalizēti aprakstam sadaļā Kā Bing sniedz Search rezultātus (skatiet "Kvalitāte un uzticamība" rakstā "Kā Bing rangi Search rezultātus").   

Mēs apsveram iespēju atbildes no Copilot pakalpojumā Bing sniegtajām atbildēm, kurās priekšrakstus atbalsta ievades avotos ietvertā informācija, piemēram, tīmekļa meklēšanas rezultāti no vaicājuma vai uzvednes, Bing zināšanu bāze faktiski pārbaudītās informācijas un tērzēšanas pieredzei tērzēšanas pieredzei tērzēšanas vēsturē ir nesena sarunas vēsture. Neplānās atbildes ir tās, kurās priekšraksts šajos ievades avotos nav pietiekami.  

Lieli valodas modeļi (LLM) šajā kontekstā ir AI modeļi, kas ir apmācīti lielam teksta datu apjomam, lai paredzētu vārdus secībā. LLMs spēj izpildīt dažādus uzdevumus, piemēram, teksta paaudžu, kopsavilkumus, tulkošanu, klasifikāciju un daudz ko citu.  

Metaprompt ir programma, kas palīdz vadīt sistēmas darbību. Daļa metaprompt palīdz saskaņot sistēmas darbību ar Microsoft AI principiem un lietotāju gaidītajiem. Piemēram, metaprompt var ietvert tādu rindkopu kā "sazināties lietotāja izvēlētajā valodā".  

Metode vai metožu kombinācija, kas paredzēta, lai samazinātu potenciālos riskus, ko var radīt AI līdzekļu izmantošana līdzpilotā darbina Bing.  

Teksta, balss, attēli un/vai citi iespējoti vaicājumi, ko lietotājs nosūta Bing kā modeļa ievadi, kas nodrošina jaunas AI vadītas generatīvas iespējas ing. Piemēram, lietotājs var ievadīt šādu uzvedni:  

"Es plānoju ceļojumu uz mūsu jubileju septembrī. Kādas vietas varam izlidot 3 stundu laikā no Londonas Jūdas?”  

Lietotāja sūtītais teksts uz Bing tiek sūtīts no meklēšanas joslas tīmeklī. Šajā dokumentā mēs atšķiram vaicājumu (meklēšanai tīmeklī) no uzvednes (AI generatīvai pieredzei pakalpojumā Bing). Piemēram, lietotājs var ievadīt šādu vaicājumu, lai meklētu tīmeklī:  

"ceļojumu galamērķi netālu no Londonas Jūdu lidostas"  

Metodes, ko izmanto eksperti, lai novērtētu sistēmas ierobežojumus un ievainojamību un pārbaudītu plānotās risku mazināšanas efektivitāti. Sarkanās grupas testēšana un slodzes pārbaude tiek izmantota, lai identificētu potenciālos riskus, un atšķiras no sistemātiskas risku mērvienības.   

Teksts, attēls, diagrammas utt. Kopilots Bing izvadēs, atbildot uz uzvedni. "Atbildes" sinonīmi ietver "pabeigšana", "ģenerēšana" un "atbilde". Piemēram, Bing var sniegt šādu atbildi uz uzvedni, ko izmantojām iepriekš piedāvātās uzvednes definīcijā:   

"Apsveicam! Ir daudz vietu, kuras varat doties 3 stundu lidojuma laikā no Londonas Jūdas. Kā no viena avota, dažas nedēļas nogales avārijas trīs stundu laikā pēc lidmašīnas no Londonas ir Toms, Kopenhāgena, Reikjavīka un Stokholma 1, 2. Vēl viens avots iesaka dažas no labākajām vietām, kur septembrī doties Eiropā, ir Toms, Kausa un Lisabona 3., 4. Varat arī pārbaudīt tiešos lidojumus no Londonas Jūklida uz dažādiem galamērķiem un aplūkot jums pievilcīgās iespējas 5. Cerams, ka jums ir brīnišķīgs brauciens!”  

Paredzētās izmantošanas iespējas un jaunā AI pieredze  

Copilot in Bing's intended uses are to connect users with relevant search results, review results from across the web to find and summarize answers users are looking for, help users refine their research to get answers with a chat experience, and spark creativity by help users create content. Copilot in Bing's generative AI experiences below support the goal of an AI-powered copilot for the web.  

Summarization. Kad lietotāji iesniedz meklēšanas vaicājumu pakalpojumā Bing Copilot, Bing sistēma apstrādā vaicājumu, veic vienu vai vairākas meklēšanas tīmeklī un izmanto populārākos tīmekļa meklēšanas rezultātus, lai ģenerētu lietotājiem sniedzamās informācijas kopsavilkumu. Šajos kopsavilkumos ir ietvertas atsauces, kas lietotājiem palīdz aplūkot izmantotos meklēšanas rezultātus un viegli tiem piekļūt. Kopsavilkumi var tikt parādīti meklēšanas rezultātu lapas labajā pusē un tērzēšanas pieredzē.  

Tērzēšanas pieredze. Papildus informācijai par apkopošanu lietotāji var tērzēt ar Copilot sistēmā Bing, izmantojot tekstu, attēlu vai balss ievadi, uzdot papildu jautājumus, lai precizētu meklēšanu un atrastu jaunu informāciju, un iesniegtu norādījumus par radoša satura ģenerēšanu. Atsauces ir iekļautas arī tērzēšanas pieredzē, ja Kopilots meklētājprogrammā Bing apkopo atbildes meklēšanas rezultātus.   

Radoša satura ģenerēšana. Tērzēšanas laikā un meklēšanas lapā lietotāji var veidot dzejoļus, anekdotes, stāstus, attēlus un citu saturu, izmantojot copilot saturu meklētājprogrammā Bing.  Attēlus izveido Designer (bijušā Bing Attēlu veidotājs) un lietotāji var piekļūt šim līdzeklim, izmantojot Designer sākumlapu, kā arī Copilot lapu. 

Kā Copilot darbojas lietojot Bing?  

Izmantojot Copilot pakalpojumā Bing, mēs esam izstrādājuši novatoriskas metodes, lai tīmekļa meklēšanai ieviestu mākslas llMs. Kad lietotājs ievada uzvedni programmā Bing Copilot, uzvedne, nesenā sarunu vēsture, metaprompt un populārākās meklēšanas rezultāti tiek nosūtīti kā ievades dati llM. Modelis ģenerē atbildi, izmantojot lietotāja uzvedni un neseno sarunu vēsturi, lai kontekstualizētu pieprasījumu, metaprompt, lai atbildes saskaņotu ar Microsoft AI principiem un lietotāju gaidītajiem principiem, kā arī meklēšanas rezultāti sakārto atbildes esošajā, augstas vērtēšanas saturā no tīmekļa.   

Atbildes tiek prezentētas lietotājiem vairākos atšķirīgos formātos, piemēram, tradicionālās saites uz tīmekļa saturu, AI ģenerētās apkopošanas, attēlu un tērzēšanas atbildes. Kopsavilkumi un tērzēšanas atbildes, kas ir atkarīgas no tīmekļa meklēšanas rezultātiem, ietver atsauces un "Papildinformācijas" sadaļu zem atbildēm, saites uz meklēšanas rezultātiem, kas tika izmantotas atbildes pamatā. Lietotāji var noklikšķināt uz šīm saitēm, lai iegūtu papildinformāciju par tēmu un informāciju, kas izmantota, lai izveidotu kopsavilkumu vai tērzētavas atbildi.    

Līdzpilotā pieredzē lietotāji var sarunā veikt meklēšanu tīmeklī, uzvednē pievienojot kontekstu un mijiedarbojoties ar sistēmas atbildēm, lai vēl vairāk precizētu savas meklēšanas intereses. Piemēram, lietotājs var uzdot papildu jautājumus, pieprasīt papildu precizēšanas informāciju vai atbildēt uz sistēmu sarunas veidā. Tērzēšanas laikā lietotāji var arī atlasīt atbildi no iepriekš rakstītiem ieteikumiem, kurus saucam par tērzēšanas ieteikumiem. Šīs pogas tiek rādītas pēc katras Copilot atbildes un sniedziet ieteiktos aicinājumus turpināt sarunu tērzēšanas laikā. Tērzēšanas ieteikumi tiek rādīti kopā ar apkopoto saturu meklēšanas rezultātu lapā kā tērzēšanas pieredzes ieejas punkts.  

Copilot Bing sniedz lietotājam iespēju izveidot stāstus, poems, dziesmu vārdus un attēlus, izmantojot Bing palīdzību. Kad Copilot lietojumprogrammā Bing nosaka lietotāja nolūku ģenerēt radošu saturu (piemēram, uzvedne sākas ar "write me a ..."), sistēma vairākumā gadījumu ģenerēs saturu, kas reaģē uz lietotāja uzvedni. Tāpat, ja Copilot lietojumprogrammā Bing nosaka lietotāja nolūku ģenerēt attēlu (piemēram, uzvedne sākas ar "zīmēt mani ..."), sistēma vairākumā gadījumu ģenerēs attēlu, kas reaģē uz lietotāja uzvedni. Visual Search tērzēšanā, lietotāja kameras uzņemts attēls, augšupielādēts no lietotāja ierīces vai saistīts no tīmekļa, lietotāji var lūgt Copilot pakalpojumā Bing saprast kontekstu, interpretēt un atbildēt uz jautājumiem par attēlu.  Lietotāji var arī augšupielādēt failus kopilotā, lai no tiem interpretētu, konvertētu, apstrādātu vai aprēķinātu informāciju. Programmas Microsoft Designer ko lietotāji var piekļūt, izmantojot copilot programmā Bing, lietotāji var ne tikai ģenerēt attēlus, izmantojot uzvednes, bet arī mainīt to lielumu vai stilu, kā arī veikt rediģējumus, piemēram, aizmiglojot fonu vai padarot krāsas spilgtākas. 

Lietotājiem ar Microsoft kontiem (MSA) tagad ir arī iespēja abonēt Copilot Pro kas nodrošina uzlabotu pieredzi, tostarp paātrinātu veiktspēju, ātrāku AI attēlu izveidi un drīzumā iespēju izveidot jūsu Copilot GPT. Copilot Pro pašlaik ir pieejama ierobežotās valstīs, un mēs plānojam padarīt Copilot Pro pieejamu vēl vairāk tirgos.

Copilot pieredzē lietotāji var piekļūt Copilot GPT. Copilot GPT, piemēram, Designer GPT, ir pielāgota Microsoft Copilot versija par tēmu, kas jums ir īpaši interesē, piemēram, fiziskās sagatavotības, ceļojumu un cepšanas tēmu, kas var palīdzēt pārvērst neskaidras vai vispārīgas idejas par specifiskāku uzvedni ar izvadēm, tostarp tekstiem un attēliem. Copilot lietotāji var redzēt pieejamos Copilot GPT, un lietotāji ar Copilot Pro kontiem drīz būs piekļuve Copilot GPT Builder, līdzeklim, kas ļauj lietotājiem izveidot un konfigurēt pielāgotu Copilot GPT. Atbildošo AI risku mazināšana, kas iepriekš minēts par Copilot lietojumprogrammā Bing, attiecas uz Copilot GPT.

Lai uzzinātu vairāk par to, Copilot Pro un Copilot GPTs, lūdzu, apmeklējiet šeit.

Copilot in Bing strives to provide diverse and comprehensive search results with its commitment to free and open access to information. Mūsu produktu kvalitāte vienlaikus ietver darbu, lai novērstu netīšām reklamētu potenciāli kaitīgu saturu lietotājiem. Papildinformācija par to, kā Bing nosaka saturu, tostarp par to, kā tas definē atbilstību, kā arī tīmekļa lapas kvalitāti un uzticamību, ir pieejama sadaļā "Bing tīmekļa pārziņa vadlīnijas".   Papildinformācija par Bing satura regulēšanas principiem ir pieejama sadaļā "Kā Bing nodrošina meklēšanas rezultātus".   

Izmantojot Copilot operētājsistēmā Windows, copilot programmā Bing var strādāt ar operētājsistēmu Windows, lai nodrošinātu windows raksturīgās prasmes, piemēram, mainītu lietotāja dizainu vai fonu un mainītu tādus iestatījumus kā audio, Bluetooth un tīklošana. Šīs iespējas ļauj lietotājam konfigurēt iestatījumus un uzlabot lietotāju pieredzi, izmantojot llM uzvedņus dabiskā valodā. Lietojumprogrammai raksturīgu funkcionalitāti var nodrošināt arī no trešo pušu lietojumprogrammu spraudņi. Tās var automatizēt atkārtotas darbības uzdevumus un panākt lielāku lietotāju efektivitāti. Tā kā llMs reizēm var kļūdīties, tiek sniegtas atbilstošas lietotāja apstiprinājuma uzvednes, lai lietotājs būtu pēdējais lietotājs, kas var veikt izmaiņas. 

Risku noteikšana, noteikšana un mazināšana  

Tāpat kā citas transformācijas tehnoloģijas, arī citu transformāciju tehnoloģiju izmantošana nav bez riska, un Galvenā Microsoft atbildīgas AI programmas daļa ir paredzēta, lai identificētu potenciālos riskus, novērtētu to nospiedumu un samazinātu riskus, lai novērstu riskus. Saskaņā ar mūsu AI principiem un mūsu atbildīgo AI standartu mēs centāmies identificēt, izmērīt un mazināt potenciālos riskus un copilot izmantošanu Bing, vienlaikus nodrošinot jaunās pieredzes transformācijas un izdevīgos lietojumus. Tālāk redzamajās sadaļās ir aprakstīta iteratīvā pieeja potenciālo risku identificēšanai, mērīšanai un novēršanai.   

Modeļa līmenī mūsu darbs sākās 2022. gada GPT-4 vasaras beigās, izmantojot izpētes datu analīzi. Tas ietver plašu sarkano grupu testēšanu kopā ar OpenAI. Šī pārbaude tika izstrādāta, lai novērtētu, kā jaunākā tehnoloģija darbotos bez papildu aizsardzības, kas tai piemērots. Mūsu konkrēts mērķis šajā brīdī bija radīt kaitīgas atbildes, virsmas potenciālos ceļus ļaunprātīgai videi un identificēt iespējas un ierobežojumus. Mūsu kombinētā apmācība visā OpenAI un Microsoft veicina modeļa izstrādi, bet korporācija Microsoft informēja mūsu izpratni par riskiem un veicina agrākas risku mazināšanas stratēģijas saistībā ar kopilotu lietojumprogrammā Bing.  

Papildus modeļa sarkanās grupas testēšanai daudzlīmeņu ekspertu grupa veica vairākas programmas līmeņa sarkanās grupas testēšanas par Copilot Bing AI versijās, pirms tās padarīt pieejamas mūsu ierobežotā laidiena priekšskatījumā. Šis process mums palīdzēja labāk saprast, kā sistēmu var izmantot eksversāli uzmācēji, kā arī uzlabot mūsu riskus. Slodzes testētāji, kas nav papildu slodzes testētāji, arī plaši novērtē jaunus Bing līdzekļus un ievainojamību. Pēcizlaides jaunās Bing AI iespējas ir integrētas Bing tehniskās organizācijas esošajā ražošanas mērvienību un testēšanas infrastruktūrā. Piemēram, sarkanās grupas testētāji no dažādiem reģioniem un foniem nepārtraukti un ar labu mēģinājumu kompromitēt sistēmu, un viņu rezultāti tiek izmantoti, lai paplašinātu datu kopas, ko Bing izmanto sistēmas uzlabošanai.  

Sarkanās grupas testēšana un slodzes pārbaude var norādīt uz īpašu risku gadījumiem, bet ražošanas lietotājiem būs miljoniem dažādu veidu sarunu ar copilot programmā Bing. Turklāt sarunas ir daudzveidīgas un kontekstuālas, un kaitīga satura identificēšana sarunā ir sarežģīts uzdevums. Lai labāk izprastu un novērstu riskus copilot Bing AI pieredzē, mēs izstrādājām papildu atbildīgu AI metriku, kas raksturīga šīm jaunajām AI izmantošanas pieredzē, lai noteiktu iespējamos riskus, piemēram, jailu pārtraukumi, kaitīgu saturu un neplānās saturu. Mēs arī iespējojām mērījumus mērogā, izmantojot daļēji automatizētus mērvienību konveijerus. Ikreiz, kad tiek atjauninātas izmaiņas par produktiem, tiek atjaunināts esošās atvieglojumus vai tiek piedāvāti jauni atvieglojumus, mēs atjauninām mērvienību konveijerus, lai novērtētu produktu veiktspēju un atbildošo AI metriku.  

Ilustratīva piemērs: atjauninātais daļēji automatizētais mērvienību konveijers kaitīgam saturam ietver divus būtiskus inovācijas: sarunas simulāciju un automatizētu, cilvēkam pārbaudītu sarunas anotāciju. Vispirms atbildīgie AI eksperti ir izveidojuši veidnes, lai tvertu sarunu struktūru un saturu, kas var izraisīt dažāda veida kaitīgu saturu. Šīs veidnes pēc tam tika sniegtas sarunas aģentam, kas mijiedarbojās kā hipotētiska lietotāja ar Copilot in Bing, ģenerējot simulētas sarunas. Lai noteiktu, vai šajās simulētās sarunās bija kaitīgs saturs, mēs izstrādājām vadlīnijas, ko parasti izmanto pieredzējuši linguiti, lai apzīmētu datus un modificētu tos izmantošanai GPT-4, lai marķētu sarunas mērogā, pārveidojot vadlīnijas, līdz tika panākts ievērojams līgums starp modeļa marķētām sarunām un cilvēkam atzīmētām sarunām. Visbeidzot mēs izmantojām modeļa marķētās sarunas, lai aprēķinātu atbildīgu MI metrika, kas uztver Bing kopilotu efektivitāti, mazināt kaitīgu saturu.   

Mūsu mērvienību konveijeri mums sniedz iespēju ātri veikt mērījumus iespējamam riskam mērogā. Tā kā mēs identificējam jaunas problēmas priekšskatījuma periodā un notiekošā sarkanā grupas pārbaudē, mēs turpinām paplašināt mērvienību kopas, lai novērtētu papildu riskus.  

Kā noteikuši iespējamos riskus un ļaunprātīgu izmantošanu, izmantojot procesus, piemēram, sarkanās grupas testēšanu un slodzes testēšanu, kā arī tos jāmēra, izmantojot iepriekš aprakstītās novatoriskās pieejas, mēs izstrādājām tradicionālo meklēšanas iespēju papildu riskus. Tālāk ir aprakstītas dažas no šīm risku mazināšanas saitēm. Mēs turpināsim pārraudzīt Copilot lietošanu Bing AI lai uzlabotu produktu veiktspēju un riskus.  

Pakāpeniskais laidiens, nepārtraukts novērtējums. Mēs esam apņēmušies mācīties un pastāvīgi uzlabot mūsu atbildīgāS AI pieeju, attīstās tehnoloģijas un lietotāju rīcība. Mūsu inkrementālā laidiena stratēģija ir bijis galvenā daļa no tehnoloģijas drošas pārvietošanas no labs uz pasauli, un mēs esam apņēmušies pārdomāti, pārdomāti, lai nodrošinātu Copilot priekšrocības rīkā Bing. Ierobežojot to personu skaitu, kam ir piekļuve priekšskatījuma periodā, esam atļāvuši mums noteikt, kā lietotāji izmanto Copilot lietojumprogrammā Bing, tostarp to, kā lietotāji var izmantot šo iespēju ļaunprātīgi, lai pirms plašāka laidiena mēs varam mēģināt mazināt jaunās problēmas. Piemēram, mums ir nepieciešams, lai lietotāji autentificētu, izmantojot savu Microsoft kontu, pirms piekļūt pilnai jaunajai Bing lietošanas pieredzei. Neautentificēti lietotāji var piekļūt tikai ierobežotam pieredzes priekšskatījumam. Šīs darbības neiesako ļaunprātīgu izmantošanu un palīdz mums (ja nepieciešams) atbilstoši rīkoties, reaģējot uz uzvedības kodeksa pārkāpumiem.  Mēs katru dienu veicat copilot izmaiņas, lai uzlabotu produkta veiktspēju, uzlabotu esošās risku mazināšanas iespējas un ieviestu jaunas risku mazināšanas, reaģējot uz mūsu apgūto priekšskatījuma periodā.  

Grounding meklēšanas rezultātos. Kā minēts iepriekš, copilot pakalpojumā Bing ir paredzēts, lai nodrošinātu atbildes, ko atbalsta informācija tīmekļa meklēšanas rezultātos, kad lietotāji meklē informāciju. Piemēram, sistēma tiek nodrošināta ar tekstu no populārākajiem meklēšanas rezultātiem un norādījumiem, izmantojot metaprompt savu atbildi. Tomēr, apkopojot saturu no tīmekļa, copilot pakalpojumā Bing atbildē var iekļaut informāciju, kas nav pieejama tā ievades avotos. Citiem vārdiem sakot, tas var radīt negrounded rezultātus. Mūsu agrīnie novērtējumi ir par to, ka priekšplānā rezultāti tērzēšanā var būt izplatītāki noteiktu veidu uzvednēs vai tēmās, piemēram, vaicājot matemātiskus aprēķinus, finanšu vai tirgus informāciju (piemēram, uzņēmuma ienākumus, akciju veiktspējas datus) un informāciju, piemēram, precīzus notikumu datumus vai noteiktas vienumu cenas. Lietotājiem vienmēr vajadzētu ievērot piesardzību un ievērot vislabākos spriedumus, skatot apkopotus meklēšanas rezultātus gan meklēšanas rezultātu lapā, gan tērzēšanas pieredzē. Mēs esam veikusi vairākus pasākumus, lai mazinātu risku, ka lietotāji, iespējams, paļaujas uz negroundētu ģenerētu saturu kopsavilkuma scenārijos un tērzēšanas pieredzē. Piemēram, atbildes lietojumprogrammā Copilot meklētājprogrammā Bing, kuru pamatā ir meklēšanas rezultāti, ietver atsauces uz lietotāju avota tīmekļa vietnēm, lai verificētu atbildi un uzzinātu vairāk. Lietotājiem tiek sniegta arī precīza informācija par to, ka viņi mijiedarbojas ar AI sistēmu, un ir ieteicams pārbaudīt tīmekļa rezultātu avota materiālus, lai palīdzētu viņiem ievērot vislabākos spriedumus.  

AI bāzes klasifikatori un metapromēšana, lai mazinātu iespējamos riskus vai ļaunprātīgu izmantošanu. LLM izmantošana var radīt problemātisku saturu, kas var izraisīt riskus vai ļaunprātīgu izmantošanu. Kā piemērus var ietvert izvadi, kas saistīta ar paškaitējumu, vardarbības, grafikas saturu, intelektuālu rekvizītu, neprecīzu informāciju, kairdīgu runu vai tekstu, kas var būt saistīts ar neatļautām darbībām. Klasifikatori un metapromtēšana ir divi programmā Bing ieviesto risku mazināšanas piemēri, lai samazinātu šādu satura veidu risku. Klasifikatori klasificē tekstu, lai atzīmētu dažāda veida potenciāli kaitīgu saturu meklēšanas vaicājumos, tērzēšanas uzvednēs vai ģenerētās atbildes. Bing izmanto AI tipa klasifikatorus un satura filtrus, kas attiecas uz visiem meklēšanas rezultātiem un atbilstošajiem līdzekļiem. mēs izstrādājām papildu uzvednes apzīmētājus un satura filtrus, lai novērstu iespējamos riskus, ko rada Copilot Bing līdzekļi. Karodziņi izraisa iespējamus riskus, piemēram, neatgriež lietotājam ģenerētu saturu, pārvirziet lietotāju uz citu tēmu vai novirziet lietotāju uz tradicionālo meklēšanu. Metaprompting ietver norādījumus modelim, lai vadītu tā darbību, tostarp nodrošinātu, ka sistēma darbojas saskaņā ar Microsoft AI principiem un lietotāju vēlmēm. Piemēram, metaprompt var ietvert tādu rindkopu kā "sazināties lietotāja izvēlētajā valodā".   

Konfidencialitātes aizsardzība Visual Search programmā Copilot in Bing. Kad lietotāji augšupielādē attēlu tērzēšanas uzvednes daļā, Copilot pakalpojumā Bing pirms attēla nosūtīšanas AI modelim izmanto sejas aizmiglošanas tehnoloģiju. Sejas aizmiglošana tiek izmantota, lai aizsargātu attēlā parādīto personu konfidencialitāti. Sejas aizmiglošanas tehnoloģija izmanto konteksta norādes, lai noteiktu, kur aizmiglot un mēģināt aizmiglot visas sejas. Kad sejas ir aizmiglotas, AI modelis var salīdzināt ievadīto attēlu ar publiski pieejamiem attēliem internetā. Līdz ar to, piemēram, Copilot Bing var identificēt slavenu basketbola atskaņotāju no šī atskaņotāja fotoattēla basketbola tiesā, izveidojot skaitlisku attēlojumu, kas atspoguļo spēlētāja džērsija skaitli, džērsija krāsu, basketbola virsotnes klātbūtni u.c. Copilot pakalpojumā Bing nesaglabā personu skaitlisko attēlojumu no augšupielādētiem attēliem un neprezentē tās ar trešajām pusēm. Copilot in Bing uses numerical representations of the images that users upload only for to responding to users's prompts, then they are deleted within 30 days after the chat ends.    

Ja lietotājs jautā copilot pakalpojumā Bing informāciju par augšupielādētu attēlu, tērzēšanas atbildes var atspoguļot sejas aizmiglošanas ietekmi uz modeļa spēju sniegt informāciju par augšupielādēto attēlu. Piemēram, Copilot lietojumprogrammā Bing var aprakstīt, ka kādam ir aizmiglota seja.    

Ierobežojot sarunas. Priekšskatījuma periodā mēs uzzinājām, ka ļoti garas tērzēšanas sesijas var izraisīt atbildes, kas atkārtojas, nepalīdz vai neatbilst Copilot Bing paredzētajā tonī. Lai novērstu šo sarunu lietību, katrai tērzēšanas sesijai ir ierobežots pagriezienu skaits (apmaiņa, kurā ir gan lietotāja jautājums, gan atbilde no Copilot programmā Bing). Mēs turpinām novērtēt papildu pieejas, kā mazinātu šo problēmu.  

Ātra papildināšana. Dažos gadījumos lietotāja uzvedne var būt neviennozīmīga. Šādā gadījumā Copilot programmā Bing var izmantot LLM, lai uzvednē palīdzētu nodrošināt, ka lietotāji saņem meklēto atbildi. Šāda ātra papildināšana nepaļaujas uz lietotāja zināšanām vai iepriekšējo meklēšanu, bet gan uz AI modeli. Šie pārskatītie vaicājumi būs redzami lietotāja tērzēšanas vēsturē, un, tāpat kā citus meklēšanas vaicājumus, tos var izdzēst, izmantojot produktu vadīklas.  

Uz lietotāju centrēts noformējums un lietotāju pieredzes iejaukšanās. Lietotāju centrēta noformēšana un lietotāju pieredze ir būtisks Microsoft pieeja attiecībā uz atbildīgu AI. Mērķis ir izveidot saknes produktu noformējumu lietotāju vajadzībām un gaidītajam. Tā kā lietotāji pirmoreiz mijiedarbojas ar Copilot lietojumprogrammā Bing, mēs piedāvājam dažādus skārienpunktus, kas paredzēti, lai palīdzētu viņiem izprast sistēmas iespējas, atklāt lietotājiem, ka Kopilotu pakalpojumā Bing darbina AI, un paziņot ierobežojumus. Šī pieredze ir radīta tā, lai palīdzētu lietotājiem maksimāli izmantot Copilot iespējas lietojot Bing, kā arī samazinātu pārspīli. Arī pieredzes elementi palīdz lietotājiem labāk izprast kopilotu lietotāju Bing tīklā un viņu mijiedarbības ar to. Tie ietver tērzēšanas ieteikumus, kas attiecas tieši uz atbildīgu AI (piemēram, kā Bing izmanto AI? Kāpēc Bing kopilots neatbildēs uz dažām tēmām?), ierobežojumu skaidrojumus, veidus, kā lietotāji var uzzināt vairāk par sistēmas darbību un ziņot par atsauksmēm, kā arī ērti naviģējamas atsauces, kas tiek rādītas atbildēs, lai lietotājiem parādītu rezultātus un lapas, kurās atbildes ir vienkāršas.  

AI izpaušana. Copilot in Bing provides several touchpoints for meaningful AI disclosure where users are notified that they are interacting with an AI system as well as opportunities to learn more about Copilot in Bing. Šo zināšanu sniegtās iespējas lietotājiem var palīdzēt izvairīties no pārāk paļauties uz AI un uzzināt par sistēmas priekšrocībām un ierobežojumiem.  

Multivides pierādītība.Microsoft Designer ir iespējojis līdzekli "Satura akreditācijas dati", kas izmanto šifrēšanas metodes, lai atzīmētu visu programmā Designer izveidotu AI ģenerēto attēlu avotu jeb "pierādīto Designer. Neredzamās digitālās ūdenszīmes līdzeklis rāda sākotnējā izveides avotu, laiku un datumu, un šo informāciju nevar mainīt. Tehnoloģija izmanto satura un autentiskuma kodēšanas (C2PA) iestatītos standartus, lai uzlabotu uzticamību un caurspīdīgumu AI ģenerētiem attēliem. Microsoft ir C2PA līdzdibinājis un ir daļa no galvenā digitālā satura pierādītās tehnoloģijas. 

Lietošanas nosacījumi un uzvedības kodekss. Šis resurss nosaka Copilot izmantošanu Bing. Lietotājiem ir jāievēro lietošanas noteikumi un uzvedības kodekss , kas informē viņus arī par kļūdainu un pārblēgtu lietojumu, kā arī par terminu pārvarēšanas sekām. Lietošanas nosacījumi arī nodrošina papildu informāciju lietotājiem un nodrošina lietotājiem parocīgs uzziņas materiālu, lai uzzinātu par koppilotu lietojumprogrammā Bing.   

Darbības un ātra atbilde. Mēs izmantojam Copilot arī Bing pastāvīgajā pārraudzības un darbības procesos, lai novērstu, kad Copilot in Bing saņem signālus vai saņem atskaiti, norādot iespējamās lietošanas nosacījumu vai uzvedības kodeksa pārkāpumus.  

Atsauksmes, uzraudzība un pārraudzība. Copilot in Bing pamatā ir esošie rīki, kas ļauj lietotājiem iesniegt atsauksmes un ziņot par problēmām, kuras pārskata Microsoft darba grupas. Bing darbības procesi arī ir paplašināti, lai nodrošinātu līdzekļus līdzpilotā Bing pieredzē, piemēram, atjauninot lapu Ziņot par problēmu, lai iekļautu jaunos satura tipus, ko lietotāji ģenerē, izmantojot modeli.   

Mūsu pieeja risku identificēšanai, noteikšanai un novēršanai turpinās attīstās, kamēr uzzināsit vairāk, un mēs jau veiksim uzlabojumus, ņemot vērā priekšskatījuma periodā apkopotās atsauksmes.     

Automātiska satura noteikšana. Kad lietotāji augšupielādē attēlus tērzēšanas uzvednē, Copilot rīkā Bing izvieto rīkus, lai noteiktu bērnu seksuālo ekspluatāciju un attēlu ļaunprātīgu izmantošanu (COPII), svarīgākais tehnoloģija PhotoDNA hash-matching. Microsoft izstrādātais PhotoDNA, lai palīdzētu atrast zināmu CMAKSĀJOTI dublikātus. Microsoft ziņo par visu šķietamo C LĪDZJUTĪBU nacionālo bez trūkstošu un noskrāpju bērnu (NCMEC) centram, kā tas ir paredzēts ASV tiesību aktos. Kad lietotāji augšupielādē failus analizēšanai vai procesam, Copilot izvieto automātisko skenēšanu, lai noteiktu saturu, kas var radīt riskus vai ļaunprātīgu izmantošanu, piemēram, tekstu, kas var būt saistīts ar neatļautām darbībām vai ļaunprātīgu kodu.

Konfidencialitātes aizsardzība  

Microsoft ilgstoši uzskatiet, ka konfidencialitāte ir cilvēka pamata tiesības, ir informēta par katru Posmu, kad Microsoft izstrādāt un izvietot Copilot Bing pieredzē. Mūsu saistības aizsargāt visu lietotāju konfidencialitāti, tostarp nodrošinot personām caurspīdīgumu un kontroli pār saviem datiem un integrējot konfidencialitāti, izmantojot datu minimizāciju un mērķa ierobežojumu, ir copilot in Bing pamats. Mēs attīstāsjam uz kopilotu sniegšanu Bing generatīvajā AI pieredzē, mēs nepārtraukti izpētīsim, kā vislabāk aizsargāt konfidencialitāti. Šis dokuments tiks atjaunināts, kā to darām. Papildinformācija par to, kā Microsoft aizsargā mūsu lietotāju konfidencialitāti, ir pieejama Microsoft paziņojumā par konfidencialitāti.  

Izmantojot Windows koppilotu pieredzi, Windows prasmes kā daļu no funkcionalitātes var koplietot lietotāju informāciju ar tērzēšanas sarunu. Uz to attiecas lietotāja apstiprinājums, un tiek parādītas UI uzvednes, lai apstiprinātu lietotāju nolūku, pirms informācija par lietotāju tiek koplietota ar tērzēšanas sarunu.

Microsoft turpina apsvērt bērnu un jaunu cilvēku vajadzības kā daļu no riska novērtēšanas jaunajiem AI līdzekļiem kopilotā lietojumprogrammā Bing. Visi Microsoft bērna konti, kas identificē lietotāju, ir jaunāki par 13 gadiem vai citādi saskaņā ar vietējiem tiesību aktiem, nevar pierakstīties, lai piekļūtu pilnai jaunajai Bing pieredzei.   

Kā aprakstīts iepriekš, visiem lietotājiem esam ieviesuši drošības pasākumus, kas potenciāli potenciāli bīstamais saturs. Līdzpilotā Bing kopilotā rezultāti tiek iestatīti kā Bing drošās meklēšanas obligātajā režīmā, kam ir augstākā līmeņa drošības aizsardzība galvenajā Bing meklēšanā, tādējādi neļaujot lietotājiem, tostarp pusaudžiem, tikt pakļautiem potenciāli kaitīgam saturam. Papildus informācijai, ko esam sniedzuši šajā dokumentā un mūsu bieži uzdoto ziņojumu atbildēs par tērzēšanas līdzekļiem, šeit ir pieejama papildinformācija par to, kā kopilots rīkā Bing darbojas, lai nereaģētu ar neparedzētu aizvainojošu saturu meklēšanas rezultātos.  

Microsoft ir apņēmusies ne piegādāt personalizētas reklāmas, pamatojoties uz tiešsaistes rīcību bērniem, kuru dzimšanas datums bērna Microsoft kontā identificē viņus kā bērnus, kas jaunāki par 18 gadiem. Šī svarīgā aizsardzība tiks attiecināta arī uz reklāmām pakalpojumā Bing līdzpilotā. Lietotājiem var tikt rādītas konteksta reklāmas, pamatojoties uz vaicājumu vai uzvedni, kas tiek izmantota, lai mijiedarbotos ar Bing.  

Lai atbloķētu generatīvāS AI transformācijas potenciālu, mums jāizveido uzticamība tehnoloģijai, sniedzot atsevišķām personām iespēju saprast, kā tie tiek izmantoti, un nodrošinot viņiem jēgpilnu izvēli un kontroli pār saviem datiem. Copilot in Bing ir paredzēts, lai noteiktu uzņēmuma prioritātes, sniedzot informāciju par to, kā produkts darbojas, kā arī tā ierobežojumiem, kā arī paplašinot mūsu stabilas patērētāju izvēles iespējas un vadīklas, lai līdzpapildu produktā Bing līdzekļiem.   

Microsoft paziņojumā par konfidencialitāti ir sniegta informācija par mūsu caurspīdīgo konfidencialitātes praksi mūsu klientu aizsardzībai, un tajā ir iestatīta informācija par vadīklām, kas sniedz mūsu lietotājiem iespēju skatīt un pārvaldīt savus personas datus. Lai nodrošinātu, ka lietotājiem ir informācija, kas nepieciešama, mijiedarbojoties ar Bing jaunajiem sarunas līdzekļiem, informācija par produktu informāciju informē lietotājus, ka vēlas sazināties ar AI produktu, un mēs sniedzam saites uz papildu bieži uzdotajiem jautājumiem un skaidrojumiem par šo līdzekļu darbību. Microsoft turpinās klausīties lietotāju atsauksmes un atbilstoši pievienos detalizētu informāciju par Bing sarunas līdzekļiem, lai atbalstītu izpratni par to, kā produkts darbojas.   

Microsoft arī nodrošina saviem lietotājiem jaudīgus rīkus, lai īstenot savas tiesības attiecībā uz saviem personas datiem. Microsoft konfidencialitātes informācijas panelī tiek nodrošināti dati, ko copilot apkopo rīkā Bing, tostarp izmantojot lietotāju vaicājumus un uzvednes, autentificēti (pierakstīti) lietotāji ar rīkiem savu datu tēmas tiesību izpildē, tostarp nodrošina lietotājiem iespēju skatīt, eksportēt un dzēst saglabāto sarunu vēsturi. Microsoft turpina sniegt atsauksmes par to, kā viņi vēlas pārvaldīt savas jaunās Bing iespējas, tostarp izmantojot datu pārvaldības iespējas kontekstā.   

Copilot in Bing arī godina pieprasījumus Saskaņā ar Eiropas tiesībām tikt aizmirstam, ievērojot procesu, ko Microsoft izstrādāja un precizēja Bing tradicionālajai meklēšanas funkcionalitātei. Visi lietotāji var ziņot par bažām, kas šeit rodas saistībā ar ģenerēto saturu un atbildēm , un mūsu Eiropas lietotāji var izmantot šo veidlapu, lai iesniegtu pieprasījumus bloķēt meklēšanas rezultātus Eiropā pa labi, lai tos aizmirstu.   

Copilot lietojumprogrammā Bing pazīs lietotāju konfidencialitātes izvēles, ieskaitot tās, kas iepriekš veiktas lietojumprogrammā Bing, piemēram, piekrišanu datu apkopošanai un lietošanai, kas pieprasīta ar sīkfailu reklāmkarogiem un vadīklām, kas pieejamas Microsoft konfidencialitātes informācijas panelī. Lai palīdzētu lietotājam palīgam un aģentūrai pieņemt informētus lēmumus, esam izmantouši mūsu iekšējās pārskatīšanas procesu, lai rūpīgi izpētītu, kā izvēles tiek prezentē lietotāji. 

Papildus Microsoft konfidencialitātes informācijas panelī pieejamām vadīklām, kas ļauj lietotājiem skatīt, eksportēt un dzēst savu meklēšanas vēsturi, tostarp tērzēšanas vēstures komponentus, autentificētiem lietotājiem, kuri produktā ir iespējojuši līdzekli Tērzēšanas vēsture, ir iespēja skatīt, piekļūt tērzēšanas vēsturei un to lejupielādēt, izmantojot produkta vadīklas. Lietotāji var notīrīt konkrētas tērzēšanas sarunas no tērzēšanas vēstures vai izslēgt Tērzēšanas vēstures funkcionalitāti pilnībā jebkurā laikā, apmeklējot Bing iestatījumu lapu. Lietotāji var arī izvēlēties, vai atļaut personalizēšanai piekļūt pielāgotai pieredzei, izmantojot personalizētas atbildes. Lietotāji var atteikties no personalizācijas un atteikties jebkurā laikā lapas Bing iestatījumi sadaļā Tērzēšanas iestatījumi.  Notīrot konkrētas tērzēšanas sarunas no tērzēšanas vēstures, tās netiek izmantotas personalizēšanai.  
 
Papildinformācija par tērzēšanas vēsturi un personalizēšanu tiek sniegta Copilot lietotājiem Bing bieži uzdotos bieži uzdotos 

Copilot programmā Bing ir izveidota, ņemot vērā konfidencialitāti, lai personas dati tiek apkopoti un izmantoti tikai pēc nepieciešamības, un tie vairs netiek saglabāti, kā nepieciešams. Kā minēts iepriekš, visual Search līdzeklī Bing izvieto mehānismu, kas aizmiglo lietotāju augšupielādētos attēlos sejas, lai sejas attēli nebūtu apstrādāti vai netiek glabāti tālāk. Papildinformācija par personas datiem, ko Bing apkopo, kā tie tiek izmantoti un kā tie tiek glabāti un dzēsti, ir pieejama Microsoft paziņojumā par konfidencialitāti, kurā ir sniegta arī informācija par Bing jaunajiem tērzēšanas līdzekļiem.   

Līdzpilotā rīkā Bing ir datu saglabāšanas un dzēšanas politikas, lai nodrošinātu, ka personas dati, kas apkopoti, izmantojot Bing tērzēšanas līdzekļus, tiek saglabāti tikai tik ilgi, cik nepieciešams.   

Mēs turpināsim apgūt un attīstīt savu pieeju, nodrošinot Copilot ieviešanu Bing, un kā to darām, mēs turpināsim strādāt visās disciplīnās, lai saskaņotu mūsu AI inovācijas ar cilvēku vērtībām un pamattiesību, tostarp jauno lietotāju un konfidencialitātes aizsardzību.   

Koppilots ar komerciālo datu aizsardzību 

Korporācija Microsoft 2023. gada jūlija bezmaksas publiskajā priekšskatījumā kā bezmaksas pievienojumprogramma dažiem M365 klientiem izlaida kopilot ar komerciālo datu aizsardzību (iepriekš dēvēta par Bing Chat Enterprise ("BCE"). Kopilot ar komerciālo datu aizsardzību ir AI uzlabotas tīmekļa meklēšanas iespējas uzņēmumu lietotājiem. 

Tāpat kā Līdzpilots Bing, kad Copilot ar komerciālo datu aizsardzību lietotājs ievada uzvedni interfeisā, uzvednē, tūlītējā sarunā, populārākajiem meklēšanas rezultātiem un metaprompt tiek nosūtīti llM kā ievade. Modelis ģenerē atbildi, izmantojot uzvedni un tūlītējo sarunu vēsturi, lai kontekstualizētu pieprasījumu, metaprompt, lai atbildes saskaņotu ar Microsoft AI principiem un lietotāju gaidītajiem principiem, un meklēšanas rezultāti ļauj izmantot pamata atbildes esošajā, augstas vērtēšanas saturā no tīmekļa. Tas darbojas tāpat kā Copilot lietojumprogrammā Bing, kā aprakstīts iepriekš šajā dokumentā, izņemot to, ka Copilot ar komercdatu aizsardzību izmanto tikai tūlītēju sarunu vēsturi (nevis neseno sarunu vēsturi), jo saglabātā tērzēšanas vēsture pašlaik netiek atbalstīta. Designer un visual Search tagad ir pieejami šajā versijā. 

Tāpat kā citas transformācijas tehnoloģijas, arī citu transformāciju tehnoloģiju izmantošana nav bez riska, un Galvenā Microsoft atbildīgas AI programmas daļa ir paredzēta, lai identificētu potenciālos riskus, novērtētu to nospiedumu un samazinātu riskus, lai novērstu riskus. Arī iepriekš minētajā aprakstā par Microsoft centieniem identificēt, izmērīt un mazināt potenciālos riskus, ko var radīt Copilot lietojumprogrammā Bing, ir arī daži skaidrojumi par risku mazināšanas pasākumiem, kas aprakstīti tālāk. 

Pakāpeniskais laidiens, nepārtraukts novērtējums. Līdzīgi kā copilot Bing izmantojām kopilotu ar komercdatu aizsardzību, esam arī izmantouši inkrementāla laidiena metodi. 2023. gada 18. jūlijā kopilots ar komerciālo datu aizsardzību kļuva pieejams kā bezmaksas priekšskatījums atbilstošiem uzņēmumu klientiem, kuriem ir konkrēti M365 konti, lai tos ieslēgtu uzņēmumu lietotājiem. Trīsdesmit (30) dienas pēc tam, kad piemērotajiem uzņēmuma klientiem tika paziņots, Copilot ar komerciālo datu aizsardzību tiem pašiem klientiem kļuva "noklusējums". Līdzpilot ar komerciālo datu aizsardzību kopš šī brīža ir kļuvusi pieejama arī konkrētiem izglītības iestāžu mācībspēku M365 kontiem. 2023. gada 1. decembrī kopilot ar komerciālo datu aizsardzību kļuva vispārēji pieejami noteiktiem uzņēmumu klientiem. Nākotnē plānojam paplašināt piekļuvi Copilot, izmantojot komerciālo datu aizsardzību, lai nodrošinātu Microsoft Entra ID lietotājiem.

Lietošanas nosacījumi un uzvedības kodekss. Copilot lietotājiem, kuriem ir komerciāla datu aizsardzība, ir jāievēro lietotāja lietošanas nosacījumi. Šie lietošanas nosacījumi informē lietotājus par lietojumu un pārblēgšanu un nosacījumu pārkāpjēšanas sekām.  

Darbības un ātra atbilde. Mēs izmantojam Copilot arī Bing pastāvīgajā pārraudzības un darbības procesos, lai novērstu problēmas, ko Copilot ar komerciālās datu aizsardzības līdzekļiem saņem signālus vai saņem ziņojumu, norādot iespējamās lietošanas noteikumu ļaunprātīgas lietošanas vai pārkāpumus. 

Atsauksmes, uzraudzība un pārraudzība. Kopilot ar komerciālās datu aizsardzības līdzekļiem tiek izmantota tā pati rīka izmantošana kā Copilot rīkā Bing, lai lietotāji iesniegtu atsauksmes un ziņotu par problēmām, kuras pārskata Microsoft darba grupas. Copilot Bing darbības procesos arī ir paplašināts, lai nodrošinātu līdzekļus līdzpilotā ar komerciālās datu aizsardzības iespējām, piemēram, atjauninot lapu Ziņot par bažām, iekļaujot jaunos satura tipus, ko lietotāji ģenerē, izmantojot modeli.  

Lai nodrošinātu lietotājiem nepieciešamo informāciju, kad viņi mijiedarbojas ar Copilot komerciālās datu aizsardzības vajadzībām, šī dokumenta lejasdaļā ir pieejama produktu dokumentācija, tostarp bieži uzdotie jautājumi un Papildinformācija. 

Lietotāju ģenerētās uzvednes un atbildes programmā Copilot, izmantojot komerciālo datu aizsardzību, tiek apstrādātas un saglabātas kopā ar uzņēmuma datu apstrādes standartiem. Kopilot ar komerciālās datu aizsardzības piedāvājumu pašlaik ir pieejams tikai uzņēmumu klientiem un viņu autentificētiem pieaugušā lietotājiem, tādējādi netiek paredzēts, ka bērni vai jauni cilvēki pašlaik ir Līdzpilotas lietotāji ar komercdatu aizsardzību. Turklāt Līdzpilot ar komerciālo datu aizsardzību lietotājiem netiek sniegtas reklāmas, kas tiek reklāmas, kas tiek atlasītas jūsu vajadzībām. Tā vietā visas rādītās reklāmas ir tikai ar kontekstu saistītas reklāmas.  

Papildinformācija

Šis dokuments ir daļa no plašākas Microsoft piepūles, lai ieviestu mūsu AI principus praksē. Papildinformāciju skatiet rakstā:

Microsoft pieeja atbildīgajiem AI

Microsoft atbildīgais AI standard

Microsoft atbildīgais AI resursi  

Microsoft Azure mācību kursi par atbildīgu AI  

Par šo dokumentu  

© Microsoft 2023. Visas tiesības paturētas. Šis dokuments ir sniegts "šis ir" un tikai informatīvām vajadzībām. Informācija un skati, kas izteikti šajā dokumentā, tostarp URL un citas interneta tīmekļa vietņu atsauces, var mainīties bez iepriekšēja brīdinājuma. Jūs uzņemasies ar tās izmantošanas risku. Daži piemēri ir paredzēts tikai ilustrācijai un ir fiktīvi. Neviena reāla saistīšana nav paredzēta vai netiek izsecināta.  

Nepieciešama papildu palīdzība?

Vēlaties vairāk opciju?

Izpētiet abonementa priekšrocības, pārlūkojiet apmācības kursus, uzziniet, kā aizsargāt ierīci un veikt citas darbības.

Kopienas palīdz uzdot jautājumus un atbildēt uz tiem, sniegt atsauksmes, kā arī saņemt informāciju no ekspertiem ar bagātīgām zināšanām.

Vai šī informācija bija noderīga?

Cik lielā mērā esat apmierināts ar valodas kvalitāti?
Kas ietekmēja jūsu pieredzi?
Nospiežot Iesniegt, jūsu atsauksmes tiks izmantotas Microsoft produktu un pakalpojumu uzlabošanai. Jūsu IT administrators varēs vākt šos datus. Paziņojums par konfidencialitāti.

Paldies par jūsu atsauksmēm!

×