Pēdējoreiz atjaunināts: 2025. gada septembrī

Kas ir caurspīdīguma piezīme?

AI sistēmā ir ietverta ne tikai tehnoloģija, bet arī cilvēki, kas to izmantos, personas, kuras to ietekmēs, un vide, kurā tā tiek izvietota. Microsoft caurspīdīguma piezīmes ir paredzētas, lai palīdzētu jums saprast, kā darbojas Copilot vadītā AI tehnoloģija, izvēli, kas ietekmē sistēmas veiktspēju un darbību, kā arī, cik svarīgi ir domāt par visu sistēmu, lai Copilot lietotāji varētu pārņemt savas pieredzes kontroli un saprast darbības, ko veicam, lai nodrošinātu drošu un drošu produktu.

Microsoft caurspīdīguma piezīmes ir daļa no plašākas microsoft piepūles, lai ieviestu mūsu II principi. Papildinformāciju skatiet rakstā Microsoft AI principi

Pamatinformācija par Microsoft Copilot

Ievads

Copilot ir AI nodrošinātā pieredze, kas palīdzēs lietotājiem sniegt meklēto informāciju, kamēr esat gatavs atbalstīt lietotājus atbildēšanai uz plašu jautājumu klāstu neatkarīgi no situācijas vai tēmas. Atsvaidzinātais Copilot ne tikai sniedz atbildes uz pamatinformācijas izgūšanas vaicājumiem, bet arī koncentrējas uz satura ģenerēšanu, lai lietotājiem uzdevumu izpildes laikā piedāvātu proaktīvāku atbalstu. Mums ir arvien pieaugoša izpratne par to, kā AI var palīdzēt cilvēkiem apgūt, atklāt un būt radošākiem, kas mums ir nepieciešami, lai veidotu cita veida produktu. Jaunā Copilot pieredze meklē, lai kļūtu par jauna veida pieredzi, kas ir atvērta un dinamiska, lai labāk atbilstu lietotāju vajadzībām intuitīvākā veidā.

Korporācija Microsoft nopietni apņemas nodrošināt atbildīgu mākslīgo intelektu. Atjauninātā Copilot pieredze ir izstrādāta saskaņā ar Microsoft AI principiem, Microsoft atbildīgajiem AI Standard un sadarbojoties ar atbildīgajiem AI ekspertiem visā uzņēmumā, ieskaitot Microsoft atbildīgas AI Office, mūsu tehniskās grupas, Microsoft Research un Aether. Papildinformāciju par atbildīgu AI varat iegūt vietnē Microsoft šeit.  

Šajā dokumentā aprakstīta mūsu pieeja atbildīgajam AI par Copilot. Pirms izlaišanas mēs izmantojām Microsoft labākās metodes, lai kartētu, novērtētu un pārvaldītu potenciālos riskus, kā arī sistēmas ļaunprātīgu izmantošanu un nodrošinātu lietotājiem tās priekšrocības. Tā kā mēs turpinām attīstīt Copilot, mēs turpinām apgūt un uzlabot mūsu atbildošo AI darbību. Šis dokuments tiks periodiski atjaunināts, lai informētu par mūsu pilnveidotajiem procesiem un metodēm.  

Galvenie termini

Klasifikatori    Mašīnmācības modeļi, kas palīdz kārtot datus izšķirās pēc klasēm vai informācijas kategorijām. Atjauninātajā Copilot pieredzē viens no veidiem, kā mēs izmantojam klasifikatorus, ir palīdzēt noteikt potenciāli kaitīgu saturu, ko iesniedz lietotāji vai ko ģenerē sistēma, lai mazinātu šī satura rašanos un ļaunprātīgu izmantošanu vai sistēmas ļaunprātīgu izmantošanu. 

Zemējuma    Noteiktām sarunām, kurās lietotāji meklē informāciju, Copilot meklēšanas rezultātos ir izmantojis pamatinformāciju. Tas nozīmē, ka Līdzpilots centrē atbildi augsta vērtēšanas saturā no tīmekļa un nodrošina hipersaites, izmantojot ģenerētas atbildes teksta formātā. Ņemiet vērā, ka pašlaik lietotāja uzvednes balss režīmā neaktivizēs meklēšanu tīmeklī, tāpēc atbildes neietver norādes.

Lieli valodu modeļi (LLM)    Lieli valodas modeļi (LLM) šajā kontekstā ir AI modeļi, kas ir apmācīti lielam teksta datu apjomam, lai paredzētu vārdus secībā. LlMs var veikt dažādus uzdevumus, piemēram, teksta ģenerēšanu, apkopošanu, tulkošanu, klasifikāciju un daudz ko citu.

Novēršana    Metode vai metožu kombinācija, kas paredzēta, lai samazinātu iespējamos riskus, kas var rasties, izmantojot AI līdzekļus programmā Copilot.

Vairāku modālos modeļus (MMM)    Multimodāli modeļi (Multi-modal models — MMMs) ir AI modeļi, kas apmācīti dažādu veidu datiem, piemēram, tekstam, attēliem vai audio. Šie modeļi var veikt dažādus uzdevumus, piemēram, rakstīt tekstu, apraksta attēlus, atpazīstamu runu un atrast informāciju dažāda veida datos.

Uzvednes    Ievade teksta, attēlu un/vai audio formātā, ko lietotājs nosūta Copilot, lai mijiedarbotos ar AI līdzekļiem programmā Copilot.

Red teaming    Metodes, ko izmanto eksperti, lai novērtētu sistēmas ierobežojumus un ievainojamību un pārbaudītu plānotās risku mazināšanas efektivitāti. Sarkanās grupas testēšana ietver testētājus, lai ieviestu gan labdabīgus, gan uzskaņotus personas, lai identificētu potenciālos riskus, un atšķiras no sistemātiskas risku mērvienības.

Atbildes    Teksts, attēli vai audio, ko Copilot izvada, reaģējot uz uzvedni vai kā daļu no lietotāja un atpakaļ. "Atbildes" sinonīmi ietver "pabeigšana", "ģenerēšana un "atbilde".

Mazi valodu modeļi (SLM)    Mazi valodu modeļi (SLM) šajā kontekstā ir AI modeļi, kas ir apmācīti mazākam, fokusētam datu apjomam salīdzinājumā ar lieliem valodu modeļiem. Lai arī LMM ir mazākā lielumā, tie var veikt dažādus uzdevumus, piemēram, teksta ģenerēšanu, apkopošanu, tulkošanu un klasifikāciju. Lai gan šie resursi, iespējams, neatbilst plašai LLM iespējām, bieži vien tie ir efektīvāki resursu resursi, un tie var būt ļoti efektīvi noteiktām, adresētām lietojumprogrammām. 

Sistēmas ziņojums    Sistēmas ziņojums (ko dažkārt dēvē par "metaprompt") ir programma, kas kalpo sistēmas darbības vadītājam. Sistēmas ziņojuma daļas palīdz saskaņot sistēmas darbību ar Microsoft AI principiem un lietotāju gaidītajiem. Piemēram, sistēmas ziņojumā var būt ietverta rindiņa, piemēram, "nesniedziet informāciju vai neveidojiet saturu, kas var izraisīt fizisku, emocionālu vai finansiālu kaitējumu". 

Iespējas

Sistēmas darbība

Izmantojot Copilot, mēs esam izstrādājuši novatoriskas pieejas, lai lietotājiem nodrošinātu vairāk personalizētu AI pieredzi par interesantu pieredzi, kas var palīdzēt lietotājiem veikt dažādus uzdevumus. Šī novatoriskā pieeja izmanto dažādas uzlabotas tehnoloģijas, piemēram, valodas un vairāku modālos modeļus no Microsoft, OpenAI un citiem modeļu izstrādātājiem. Pirms publiskās laidiena mēs strādājām pie drošības metožu ieviešanas modeļiem, kas ir jaunās Copilot pieredzes pamatā, lai izstrādātu pielāgotu iespēju un darbību kopu, kas nodrošina uzlabotu Copilot pieredzi. Atjauninātajā Copilot lietotāji var nosūtīt uzvednes dabiskā valodā vai balss ievades valodā. Atbildes tiek parādītas lietotājiem vairākos atšķirīgos formātos, piemēram, tērzēšanas atbildes teksta formātā (ja nepieciešams, izmantojot tradicionālās saites uz tīmekļa saturu) un attēlos (ja uzvednei tiek pieprasīts attēls). Ja lietotāji sūtīs norādījumus dabiskā valodā Copilot balss režīmā, viņi saņems audio atbildes. 

Kad lietotājs ievada uzvedni programmā Copilot, uzvedne, sarunu vēsture un sistēmas ziņojums tiek nosūtīts caur vairākiem ievades klasifikatoru, lai palīdzētu filtrēt kaitīgu vai nepiemērotu saturu. Šis ir kritiski svarīgs pirmais solis, lai palīdzētu uzlabot modeļa veiktspēju un mazinātu situācijas, kurās lietotāji var mēģināt pamudēt modeli tā, lai tas būtu nedrošs. Kad uzvedne tiek nosūtīta ievades klasifikatoram, tas tiek nosūtīts SLM, lai noteiktu, vai pieprasījumam nepieciešami pamati dati no tīmekļa un kuram valodas modelim ir jāatbild uz pieprasījumu. Visi modeļi ģenerē atbildi, izmantojot lietotāja uzvedni un neseno sarunu vēsturi, lai kontekstualizētu pieprasījumu, sistēmas ziņojums, lai atbildes saskaņotu ar Microsoft AI principiem un lietotāju gaidītajiem principiem, un, ja nepieciešams, atbilžu līdzināšana ar meklēšanas rezultātiem atbilstoši esošajā, augstas vērtēšanas saturā no tīmekļa.  

Atbildes tiek prezentētas lietotājiem vairākos atšķirīgos formātos, piemēram, tērzēšanas atbildes teksta veidā, tradicionālās saites uz tīmekļa saturu, attēliem un audio atbildēm. Ja atbildes tiek sniegtas teksta veidā — un atbildes ir izdrukas no tīmekļa — izvade satur hipersaites ar citācijām, kas norādītas zem teksta, lai lietotāji varētu piekļūt tīmekļa vietnēm, kas tika izmantotas, lai reaģētu uz to, un no tās iegūtu papildinformāciju par šo tēmu. Līdzpilots var arī izpildīt kodu, lai pabeigtu sarežģītus aprēķinus un ģenerētu diagrammas. Līdzpilots var glabāt konkrētus faktus, ko lietotāji pieprasa atcerēties, ļaujot ģenerēt atbilstošākās atbildes un ieteikumus, pamatojoties uz šo kontekstu. Kopilots var arī izdzēst saglabātos faktus, kad lietotāji liek tos īpaši aizmirst.

Copilot arī palīdz lietotājiem veidot jaunus stāstus, poems, dziesmu vārdus un attēlus. Kad Copilot nosaka lietotāja nolūku ģenerēt radošu saturu (piemēram, lietotāja uzvedni, kas sākas ar "write me a ..."), sistēma lielākajā daļā gadījumu ģenerēs saturu, kas reaģē uz lietotāja uzvedni. Tāpat, ja Copilot nosaka lietotāja nolūku ģenerēt attēlu (piemēram, lietotāja uzvedni, kas sākas ar "zīmēt mani ..."), Copilot lielākajā daļā gadījumu ģenerēs attēlu, kas reaģē uz lietotāja uzvedni. Kad Copilot nosaka lietotāja nolūku modificēt augšupielādētu attēlu (piemēram, lietotāja uzvedni, kas sākas ar "pievienot ..."), Kopilots vairākumā gadījumu modificē attēlu, kas reaģē uz lietotāja uzvedni. Copilot var nereaģēt ar radošu saturu, ja lietotāja uzvednē ir noteikti termini, kas var izraisīt problemātisku saturu.

Lietotāji ar Microsoft kontiem (MSA) tagad arī var abonēt pakalpojumu Copilot Pro, kas nodrošina uzlabotu pieredzi, tostarp paātrinātu veiktspēju, Copilot Voice iespēju izmantošanu ilgāku laika periodu un dažos gadījumos piekļuvi jauniem, eksperimentāliem līdzekļiem. Copilot Pro pašlaik ir pieejams ierobežotam skaitam valstu, un mēs plānojam drīz Copilot Pro pieejamus vēl arī vairāk tirgos.

Paredzētā drošības darbība

Mūsu mērķis ir izmantot Copilot, ir noderīga lietotājiem. Izmantojot labāko praksi no citiem Microsoft generatīvajiem AI produktiem un pakalpojumiem, mēs mērķis ir ierobežot Copilot no problemātiska satura ģenerēšanas un palielināt drošas un pozitīvas lietotāju pieredzes iespējamību. Lai gan mēs esam veikusi darbības, lai mazinātu riskus, ģenerējiet AI modeļus, piemēram, ko lieto Copilot, ir probabilistiski un var pieļaut kļūdas, kas nozīmē, ka risku mazināšana dažkārt nevar bloķēt kaitīgu lietotāju uzvednes vai AI ģenerētas atbildes. Ja, izmantojot Copilot, rodas kaitīgs vai neparedzēts saturs, informējiet mūs, sniedzot atsauksmes, lai mēs varētu turpināt uzlabot lietošanas pieredzi.

Lietošanas gadījumi

Paredzētā izmantošana

Copilot mērķis ir atbalstīt lietotājus, atbildot uz plašu jautājumu klāstu neatkarīgi no situācijas vai tēmas. Lietotāji var mijiedarboties ar Copilot, izmantojot tekstu, attēlu un audio ievadi, kur mijiedarbība ir paredzēta, lai justos vairāk kā dabiskas sarunas ar AI sistēmu. Turklāt, ja lietotāji mijiedarbojas ar Copilot, izmantojot tekstu, lai meklētu specifisku informāciju par tēmām, kurās Copilot var būt nepieciešama papildinformācija, lai nodrošinātu precīzāku atbildi, pieredze ir paredzēta, lai savienotu lietotājus ar atbilstošajiem meklēšanas rezultātiem, pārskatītu rezultātus no visas tīmekļa un apkopotu informāciju, ko lietotāji meklē. Līdzpilotā lietotāji var: 

  • Apkopojiet reāllaika informāciju, tērzējot ar tekstu.    Kad lietotāji mijiedarbojas ar Copilot, izmantojot tekstu, sistēma meklē tīmeklī, ja tai nepieciešama papildinformācija, un izmantos populārākos meklēšanas rezultātus tīmeklī, lai ģenerētu informācijas kopsavilkumu lietotājiem. Šajos kopsavilkumos ir ietvertas norādes uz tīmekļa lapām, kas lietotājiem palīdz skatīt un ērti piekļūt tiem meklēšanas rezultātiem, kas palīdzēja izmantot Copilot kopsavilkumu. Lietotāji var noklikšķināt uz šīm saitēm, lai pārietu tieši uz avotu, ja vēlas uzzināt vairāk.

  • Tērzēt ar AI sistēmu, izmantojot tekstu.    Lietotāji var tērzēt ar Copilot, izmantojot tekstu, un uzdot papildu jautājumus, lai atrastu jaunu informāciju un saņemtu atbalstu saistībā ar dažādām tēmām.

  • Interfeiss ar AI, izmantojot balsi un izskatu.    Copilot var ne tikai saņemt audio ievadi, bet arī izveidot audio izvadi vienā no četrām lietotāja atlasītajām balsīm un vizuālu izskatu, lai bagātinātu mijiedarbību. Audio-to-audio un izskata iespējas ļauj lietotājiem mijiedarboties ar Copilot dabiskākā un plūstošākā veidā.

  • Saņemiet saprotamu ziņu saturu.    Lietotāji var izmantot Copilot, lai saņemtu kopsavilkumu par jaunumiem, laika ziņām un citiem atjauninājumiem, pamatojoties uz atlasītajiem tēmu apgabaliem, izmantojot Copilot dienas īssavilkums līdzekli, un noklausītos šos paziņojumus aplādes formātā. Šis līdzeklis izvilks saturu no pilnvarotiem avotiem, kam ir līgumi ar Microsoft.

  • Saņemiet palīdzību jaunu ideju ģenerēšanas laikā.    Ikreiz, kad lietotāji mijiedarbojas ar Copilot pieredzi, viņi redzēs kartīšu kopu, uz kuras var noklikšķināt, lai sāktu tērzēt ar Copilot par noderīgām un interesantām tēmām. Ja lietotāji ir mijiedarbojoties ar citiem Microsoft plaša patēriņa pakalpojumiem, kartes tiks personalizētas atbilstoši mūsu konfidencialitātes politikām. Laika gaitā kartītes līdzpilotā var būt personalizētas, pamatojoties uz lietotāja tērzēšanas vēsturi. Lietotāji var atteikties no personalizēšanas jebkurā laikā iestatījumos.

  • Radošs saturs.    Tērzējot ar Copilot, lietotāji var izveidot jaunas poēmus, anekdotes, stāstus, attēlus un citu saturu, izmantojot Copilot pieredzi. Copilot var arī rediģēt lietotāju augšupielādētus attēlus, ja nepieciešams.

  • Uzdevumu izpilde Operētājsistēmā Android.Lietotāji var mijiedarboties ar Copilot Android platformā, izmantojot balsi, lai veiktu noteiktus uzdevumus. Šie uzdevumi ir taimeri un modinātāji, tālruņa zvanu veikšana, SMS ziņojumu sūtīšana un Uber zvanu pasūtīšana. Lai uzdevumi būtu izpildīti, lietotājiem ir jāapstiprina tālruņa zvans, ĪSZIŅA un Uber secība.

  • Palīdziet ar izpēti.  Līdzpilots var veikt izpētes uzdevumus, pārlūkojot padziļinātus resursus, piedāvājot detalizētu tēmu sadalījumu un saites uz avotiem, lai palīdzētu lietotājiem izmantot ne tikai ātras atbildes uz sarežģītākiem vaicājumiem. Koppilots var proaktīvi ģenerēt personalizētus izpētes ieteikumus lietotājiem, ņemot vērā, piemēram, iepriekšējos izpētes vaicājumus un copilot atmiņu. Lietotāji iestatījumos jebkurā laikā var nepiekļautu personalizēšanai vai paziņojumiem.

  • Izpētiet pasauli, izmantojot Copilot redzējums. Copilot var skatīt jūsu ekrāna vai mobilās kameras plūsmu un izmantot tās balsi, lai atbildētu uz jautājumiem un mijiedarbotos ar jums. Copilot var nekavējoties pārskatīt, analizēt un piedāvāt ieskatus un ieteikumus reāllaikā, lai palīdzētu jums strādāt, pārlūkot un izpētīt pasauli. Copilot redzējums pieejama Microsoft Edge, Windows, iOS un Android ierīcēs.

Apsvērumi, izvēloties citus lietošanas gadījumus

Iesakām lietotājiem pārskatīt visu saturu, pirms pieņemt lēmumus vai darboties, pamatojoties uz Copilot atbildēm, jo AI var pieļaut kļūdas. Turklāt pastāv noteikti scenāriji, no kuriem nav ieteicams izvairīties vai uz kuriem attiecas mūsu lietošanas nosacījumi. Piemēram, korporācija Microsoft neļauj Copilot izmantot saistībā ar nelikumīgām darbībām vai jebkādiem nolūkiem, lai veicinātu pretlikumīgu darbību.  

Ierobežojumi

Valoda, attēls un audio modeļi, kas atrodas zem Copilot pieredzes, var ietvert apmācības datus, kas var atspoguļot slīpu nospriedumu, kas savukārt var izraisīt Copilot darbību veidā, kas tiek uzskatīta par negodīgu, neuzticamu vai aizvainojošu. Neskatoties uz mūsu intensīvo modeļa apmācību un drošības jaukšanu, kā arī atbildīgu AI vadīklu un drošības sistēmu ieviešanu, kuras mēs izmantojam apmācības datu, lietotāju uzvedņu un modeļa izvades gadījumā, AI vadītie pakalpojumi ir rudens un vardības. Tas apgrūtina visa neatbilstošā satura pilnīgu bloķēšanu, kā rezultātā pastāv risks, ka iespējama aizspriedumi, stereotipi, neplānānība vai cita veida kaitējumu, kas var tikt parādīts AI ģenerētajā saturā. Daži no veidiem, kā šie ierobežojumi var parādīties Copilot pieredzē, ir uzskaitīti šeit. 

  • Stereotipusēšana. Copilot pieredze var potenciāli uzlabot stereotipus. Piemēram, pārtulkojot "Viņš ir medicīnas māsa" un "Viņa ir medicīnas māsa" uz valodas bez dzimuma, piemēram, turku valodā, un pēc tam atkal angļu valodā, Copilot var nejauši iegūt stereotipiskos (un nepareizos) rezultātus par "Viņa ir medicīnas māsa" un "Viņš ir ārsta". Vēl viens piemērs ir attēla ģenerēšana, pamatojoties uz uzvedni "Tēvs bez tēviem", sistēma var ģenerēt bērnu attēlus tikai no vienas sacensības vai etniskās piederības, uzlabojot kaitīgus stereotipus, kas varētu būt publiski pieejamos attēlos, kas tiek izmantoti pamatā esošo modeļu apmācīšanas laikā. Copilot var uzlabot arī stereotipus, pamatojoties uz lietotāja ievades attēla saturu, paļaujoties uz attēla komponentiem un pieņemot, ka tas var nebūt patiess. Mēs esam ieviesuši riskus, lai samazinātu risku, ka satur aizvainojošus stereotipus, tostarp ievades un izvades klasifikatorus, uzlabotus modeļus un sistēmas ziņojumus.

  • Pārpastāvēšana un zems atspoguļojums: Copilot, iespējams, var sniegt pārāk daudz vai pārāk daudz personu grupu vai tās vispār neattēlot, tās atbildot. Piemēram, ja teksta uzvednes, kurās ir vārds "dokumenta izveide", tiek noteiktas kā potenciāli kaitīgas vai aizvainojošas, tas var izraisīt likumīgu paaudžu pārpastāvēšanu par LGBTČIA+ kopienu. Papildus ievades un izvades klasifikatoram, precizētiem modeļiem, kā arī sistēmas ziņojumiem, mēs izmantojam tūlītēju iedzīvošanos programmā Designer kā vienu no vairākām risku mazināšanai, lai samazinātu risku, ka saturs pārsniedz vai samazina personu grupu skaitu.

  • Nepiemērots vai aizvainojošs saturs. Copilot iespējas var radīt cita veida nepiemērotu vai aizvainojošu saturu. Piemēram, iespēja ģenerēt saturu vienā modalitātes (piemēram, audio), kas ir nepiemērota tās uzvednes kontekstā vai salīdzinājumā ar vienu un to pašu izvadi citā modalitāte (piemēram, tekstā). Citi piemēri ir AI ģenerēti attēli, kas potenciāli satur kaitīgus artefaktus, piemēram, kairinošus simbolus, saturu, kas ir saistīts ar konkursu, kontrastējošas vai ideoloģiski piedausinošas tēmas par krusteniski uzdotu saturu, kas ir aizskarošs ar seksuālo lietošanu saistīta satura filtriem. Mēs esam ievietouši riskus, lai samazinātu paaudžu risku, kas satur nepiemērotu vai aizvainojošu saturu, piemēram, ievades un izvades klasifikatorus, uzlabotus modeļus un sistēmas ziņojumus.

  • Informācijas uzticamība: Lai gan Copilot iespējas reaģēt ar uzticamiem avotiem, ja nepieciešams, AI var pieļaut kļūdas. Tas var potenciāli ģenerēt nonsensical content or fabricate content that might sound reasonable but is factually inaccurate. Pat tad, ja zīmējot atbildes no augstas iestādes tīmekļa datiem, atbildes var pārprast šo saturu tā, lai tas nebūtu pilnīgi precīzi vai uzticams. Mēs atgādinām lietotājiem, izmantojot lietotāja interfeisu un dokumentāciju, piemēram, par to, ka Copilot var pieļaut kļūdas. Mēs arī turpinām izglītot lietotājus par AI ierobežojumiem, piemēram, aiciniet viņus vēlreiz pārbaudīt faktus, pirms pieņemt lēmumus vai darboties, pamatojoties uz Copilot atbildēm. Kad lietotāji mijiedarbojas ar Copilot, izmantojot tekstu, viņi mēģinās izmantot augstas kvalitātes tīmekļa datus, lai samazinātu risku, ka paaudžu nav priekšplāna.

  • Daudzvalodu veiktspēja: var būt dažādas veiktspējas atšķirības dažādās valodās, ar labāko veiktspēju angļu valodā brīdī, kad tiek izlaidis atjaunināto copilot. Veiktspējas uzlabošana dažādās valodās ir investīciju joma, un jaunākie modeļi ir uzlabojuši veiktspēju.

  • Audio ierobežojumi: audio modeļi var radīt citus ierobežojumus. Plašāk runāšana, arī runas ievades, ne runas trokšņa, vārdnīcas, akcentu un ievietošanas kļūdu kvalitāte var ietekmēt arī to, vai Kopilot apstrādā un reaģē uz lietotāja audio ievadi apmierinošā veidā. Turklāt, tā kā, izmantojot Copilot Voice, lietotāju uzvednes neaktivizēs meklēšanu tīmeklī, Copilot, iespējams, nevarēs reaģēt uz pašreizējiem notikumiem balss režīmā.

  • Ābele interneta savienojumam: atjauninātā Copilot pieredze paļaujas uz interneta savienojamību, lai darbotos. Savienojamības pārtraukumi var ietekmēt pakalpojuma pieejamību un veiktspēju.

Sistēmas veiktspēja

Daudzās AI sistēmās veiktspēja bieži tiek noteikta attiecībā pret precizitāti (t.i., cik bieži AI sistēma piedāvā pareizu prognozi vai izvadi). Izmantojot Copilot, mēs koncentrējas uz Copilot kā AI palīgs, kas atspoguļo lietotāja preferences. Tāpēc divi dažādi lietotāji var aplūkot vienu un to pašu izvadi un tiem ir dažādi viedokļi par to, cik lietderīgs vai noderīgi tas ir viņu unikālajai situācijai un gaidītajam, kas nozīmē, ka veiktspēja šīm sistēmām ir jādefinē precīzāk. Mēs vispārīgi apsveram veiktspēju, lai nozīmē, ka lietojumprogramma darbojas, kā paredzēts lietotājiem.

Paraugprakse sistēmas veiktspējas uzlabošanai 

Mijiedarbojoties ar interfeisu, izmantojot dabisku sarunas valodu.    Ērta mijiedarbība ar Copilot lietotājam ir ļoti svarīga, lai, izmantojot pieredzi, iegūtu labākus rezultātus. Līdzīgi kā ar paņēmieniem, kā palīdzēt lietotājiem efektīvi sazināties ikdienā, mijiedarbība ar Copilot kā AI palīgs, kas strādā ar lietotājam pazīstamu tekstu vai runu, var palīdzēt atrast labākus rezultātus.

Lietotāju pieredze un apopcija.    Lai efektīvi izmantotu Copilot, lietotājiem ir jāizprot tā iespējas un ierobežojumi. Var būt mācību līkne, un lietotāji, iespējams, vēlēsies sniegt atsauces uz dažādiem Copilot resursiem (piemēram, šo dokumentu un mūsu Copilot bieži uzdotajiem jautājumi), lai efektīvi mijiedarbotos ar pakalpojumu un no tā gūtu labumu.

Risku kartēšana, noteikšana un pārvaldība

Tāpat kā citas transformācijas tehnoloģijas, arī citu transformāciju tehnoloģiju izmantošana nav bez riska, un Microsoft atbildīgas AI programmas galvenā daļa ir paredzēta, lai identificētu un kartētu potenciālos riskus, novērtētu šos riskus un tos pārvaldītu, veidojot riskus un pastāvīgi uzlabojot kopilāciju laika gaitā. Tālāk redzamajās sadaļās ir aprakstīta iteratīvā pieeja potenciālo risku kartēt, mērīšanai un pārvaldīšanai.

Karte: rūpīga plānošana un pirms izvietošanas papildu testēšana, piemēram, sarkanā grupa, palīdz mums kartēt potenciālos riskus. Pamatā esošie modeļi, kas nodrošina Copilot pieredzi, izmēģinājām sarkanu komandu testēšanu no testētājiem, kuri pārstāv vairākas perspektīvas atbilstošās tēmu jomās. Šī pārbaude tika izstrādāta, lai novērtētu, kā jaunākā tehnoloģija darbotos gan ar, gan bez papildu drošības pasākumiem. Šo uzdevumu mērķis modeļa līmenī ir radīt kaitīgas atbildes, virsmas potenciālos ceļus ļaunprātīgai videi, kā arī identificēt iespējas un ierobežojumus.

Pirms Copilot pieredze kļūst publiski pieejama ierobežotā laidiena priekšskatījumā, mēs veicām arī sarkanu komandu programmas līmenī, lai novērtētu copilot for uzpilotu un ievainojamību. Šis process mums palīdzēja labāk saprast, kā sistēmu var izmantot dažādi lietotāji, un palīdzēja mums uzlabot riskus.

Mērs: Papildus Copilot novērtējumam salīdzinājumā ar mūsu esošajiem drošības novērtējumiem iepriekš aprakstītā sarkanās komandas izmantošana mums palīdzēja izstrādāt novērtējumus un atbildīgu AI metriku, kas atbilst identificētajiem iespējamajiem riskiem, piemēram, jailu pārtraukumiem, kaitīgu saturu un neplānās saturu.

Mēs apkopojām sarunas datus, kas paredzēti šiem riskiem, izmantojot vairāku dalībnieku kombināciju un automatizētu sarunu ģenerēšanas konveijeru. Katru novērtējumu pēc tam novērtē apmācītu cilvēku anotatoru pūls vai automatizēts anotāciju konveijers. Ikreiz, kad tiek veiktas izmaiņas produktā, tiek atjaunināts esošās atvieglojumus vai tiek piedāvāti jauni risku mazināšanas pasākumi, mēs atjauninām novērtēšanas konveijerus, lai novērtētu produktu veiktspēju un atbildošo AI metriku. Šie automatizētie novērtēšanas kontekstveidi ir apkopotu sarunu ar cilvēku iztveršanas un ekspromta sarunām, kas ģenerētas ar LLMs, kas tiek aicinātas testēt politikas reklāmas veidā. Katrs no šiem drošības novērtējumiem tiek automātiski iegūts, izmantojot LLM. Jaundzimušos novērtējumus sākotnēji novērtē cilvēku etiķetes, kuri lasa teksta saturu vai noklausās audio izvadi un pēc tam pārveido par automātiskiem llM veiktajiem vērtēšanu rezultātiem.

Mūsu modeļu paredzētā darbība apvienojumā ar mūsu novērtēšanas konveijeriem — gan cilvēkiem, gan automatizētajiem — ļauj mums ātri veikt mērījumus iespējamam riskam mērogā. Tā kā laika gaitā identificējam jaunas problēmas, mēs turpinām paplašināt mērvienību kopas, lai novērtētu papildu riskus. 

Pārvaldība: identificējot potenciālos riskus un ļaunprātīgu izmantošanu, izmantojot sarkano komandu, un izmērām tos ar iepriekš aprakstītajām pieejām, mēs izstrādājām papildu riskus, kas ir specifiski copilot pieredzei. Tālāk ir aprakstīti daži no šiem mazināšanas risinājumiem. Mēs turpināsim pārraudzīt Copilot pieredzi, lai uzlabotu produktu veiktspēju un mūsu risku mazināšanas pieeju. 

  • Pakāpeniskas laidienu plāni un pastāvīga novērtēšana.    Mēs esam apņēmušies nepārtraukti apgūt un uzlabot mūsu atbildīgas mākslīgā intelekta izmantošanas pieeju, jo mūsu tehnoloģijas un lietotāju uzvedība attīstās. Mūsu inkrementālā laidiena stratēģija ir viena no pamatdarbības tā, kā mēs droši pārvietojam mūsu tehnoloģiju no laboratorijas uz pasauli, un mēs esam apņēmušies pārdomāti, lai nodrošinātu Copilot pieredzes sniegtās priekšrocības. Mēs regulāri veicat izmaiņas programmā Copilot, lai uzlabotu produktu veiktspēju un esošos riskus, kā arī, reaģējot uz mūsu apgūtajām iespējām, ieviešam jaunas risku mazināšanas darbības.

  • Izmantot klasifikatorus un sistēmas ziņojumu, lai mazinātu potenciālos riskus vai ļaunprātīgu izmantošanu.    Atbildot uz lietotāja uzvedņu rādīšanu, llMs var izraisīt problemātisku saturu. Mēs apspriedām satura tipus, kurus mēģinām ierobežot iepriekš minētajās sadaļās Sistēmas darbība un ierobežojumi. Klasifikatori un sistēmas ziņojums ir divi programmā Copilot ieviesto risku mazināšanas piemēri, lai samazinātu šādu satura veidu risku. Klasifikatori klasificē tekstu, lai lietotāju uzvednēs vai ģenerētās atbildes atzīmētu potenciāli kaitīgu saturu. Mēs izmantojam arī esošo labāko praksi, lai izmantotu sistēmas ziņojumu, kas ietver norādījumus modelim, lai saskaņotu tā darbību ar Microsoft AI principiem un lietotāju gaidīto.

  • Piekrišana Copilot attēlu augšupielādei.    Pirmoreiz augšupielādējot attēlu, kurā ir sejas copilot, lietotājs saņems savu piekrišanu biometrisku datu augšupielādei līdzpilotā. Ja lietotājs nepieteiksies, attēls netiks nosūtīts uzņēmumam Copilot. 30 dienu laikā pēc sarunas beigām visi attēli, neatkarīgi no tā, vai tajos ir sejas vai nav, tiek izdzēsti.

  • Mākslīgā intelekta izpaušana.    Copilot ir paredzēts arī tam, lai informētu cilvēkus par viņu mijiedarbību ar AI sistēmu. Tā kā lietotāji sadarbojas ar Copilot, mēs piedāvājam dažādus skārienpunktus, kas paredzēti, lai palīdzētu viņiem izprast sistēmas iespējas, atklāt viņiem, ka Copilot darbību nodrošina AI, un paziņot ierobežojumus. Šī pieredze ir radīta tā, lai palīdzētu lietotājiem maksimāli izmantot Copilot iespējas un samazinātu pārbļaušanas risku. Atklāšana arī palīdz lietotājiem labāk izprast Kopilotu un viņu mijiedarbību ar to.

  • Multivides pierādītība.    Kad Copilot ģenerē attēlu, esam iespējojuši līdzekli "Satura akreditācijas dati", kas izmanto šifrēšanas metodes, lai atzīmētu visu programmā Copilot izveidoto AI ģenerēto attēlu avotu jeb "pierādītību". Šī tehnoloģija izmanto satura un autentiskuma kodēšanas (C2PA) iestatītos standartus, lai uzlabotu uzticamību un caurspīdīgumu AI ģenerētiem attēliem.

  • Automātiska satura noteikšana.    Kad lietotāji augšupielādē attēlus tērzēšanas uzvednē, Copilot izvieto rīkus, lai noteiktu attēlu attēlu par bērnu seksuālo izmantošanu un ļaunprātīgu izmantošanu (C KĀRĻU). Microsoft ziņo par visu šķietamo C LĪDZJUTĪBU nacionālo bez trūkstošu un noskrāpju bērnu (NCMEC) centram, kā tas ir paredzēts ASV tiesību aktos. Kad lietotāji augšupielādē failus analizēšanai vai procesam, Copilot izvieto automātisko skenēšanu, lai noteiktu saturu, kas var radīt riskus vai ļaunprātīgu izmantošanu, piemēram, tekstu, kas var būt saistīts ar neatļautām darbībām vai ļaunprātīgu kodu.

  • Lietošanas nosacījumi un uzvedības kodekss.    Lietotājiem ir jāievēro Copilot piemērojamie Microsoft pakalpojumu lietošanas noteikumi un uzvedības kodekss un Microsoft paziņojums par konfidencialitāti, kas sniedz arī informāciju par cēršainu un neuzvarīgu izmantošanu, kā arī par noteikumu pārkāpjšanas sekām. Lietošanas nosacījumi arī nodrošina papildu informāciju lietotājiem un nodrošina lietotājiem kā atsauci uz informāciju par kopilotu. Lietotāji, kas veic nopietnas vai atkārtotas pārkāpumus, var tikt īslaicīgi vai neatgriezeniski aizturēti no pakalpojuma.

  • Atsauksmes, uzraudzība un pārraudzība.    Copilot pieredze ir pamatā esošā rīku izveide, kas ļauj lietotājiem iesniegt atsauksmes, kuras pārskata Microsoft darba grupas. Turklāt mūsu pieeja risku kartēšanai, noteikšanai un pārvaldībai turpinās attīstās, kamēr uzzināsit vairāk, un mēs jau veiksim uzlabojumus, ņemot vērā priekšskatījuma periodos apkopotās atsauksmes.

Papildinformācija par atbildīgu AI

Microsoft Responsible AI Transparency Report

Microsoft AI principles

Microsoft atbildīgais AI resursi

Microsoft Azure mācību kursi par atbildīgu AI

Papildinformācija par Microsoft Copilot

Microsoft Copilot bieži uzdotie jautājumi

Par šo dokumentu

© 2024 Microsoft Corporation. Visas tiesības paturētas. Šis dokuments ir sniegts "šis ir" un tikai informatīvām vajadzībām. Informācija un skati, kas izteikti šajā dokumentā, tostarp URL un citas interneta tīmekļa vietņu atsauces, var mainīties bez iepriekšēja brīdinājuma. Lietotājs uzņemas ar tās lietošanu saistīto risku. Daži piemēri ir paredzēts tikai ilustrācijai un ir fiktīvi. Neviena reāla saistīšana nav paredzēta vai netiek izsecināta.

Šis dokuments nav paredzēts, un to nedrīkst pievienot kā juridisku padomu. Jurisdikcijai, kurā jūs izmantojat, var būt dažādas normatīvās vai juridiskās prasības, kas ir piemērojamas jūsu AI sistēmai. Sazinieties ar juridisko speciālistu, ja neesat pārliecināts par tiesību aktiem vai noteikumiem, kas varētu tikt piemēroti jūsu sistēmai, īpaši, ja uzskatāt, ka tie varētu ietekmēt šos ieteikumus. Ņemiet vērā, ka ne visi šie ieteikumi un resursi būs atbilstoši katram scenārijam, un savukārt šie ieteikumi un resursi dažiem scenārijiem var būt nepietiekami.

Publicēts: 01.10.2024.

Pēdējoreiz atjaunināts: 01.10.2024.

Nepieciešama papildu palīdzība?

Vēlaties vairāk opciju?

Izpētiet abonementa priekšrocības, pārlūkojiet apmācības kursus, uzziniet, kā aizsargāt ierīci un veikt citas darbības.