Ultima actualizare: mai 2024

Noțiunile de bază despre Copilot în Bing  

Copilot în Bing este acum Microsoft Copilot. Citiți despre abordarea noastră față de inteligența artificială responsabilă în documentația de aici: Notă de transparență pentru Microsoft Copilot

Introducere  

În februarie 2023, Microsoft a lansat noul Bing, o experiență de căutare web îmbunătățită pentru inteligența artificială. Acesta acceptă utilizatorii rezumând rezultatele căutării web și furnizând o experiență de chat. De asemenea, utilizatorii pot genera conținut creativ, cum ar fi poezii, glume, povești și, cu Creator de imagini Bing, imagini. Noul Bing îmbunătățit pentru inteligența artificială rulează pe o varietate de tehnologii avansate de la Microsoft și OpenAI, inclusiv GPT, un model lingvistic de ultimă generație mare (LLM) și DALL-E, un model de învățare profundă pentru a genera imagini digitale din descrierile limbajului natural, ambele din OpenAI. Am lucrat cu ambele modele luni de zile înainte de lansarea publică, pentru a dezvolta un set personalizat de capacități și tehnici pentru a alătura această tehnologie de ultimă generație de inteligență artificială și căutarea web din noul Bing.  În noiembrie 2023, Microsoft a redenumit noul Bing în Copilot în Bing.

La Microsoft, noi luăm în serios angajamentul nostru față de inteligența artificială responsabilă. Experiența de Copilot în Bing a fost dezvoltată în conformitate cu Principiile Microsoft privind inteligența artificială, standardul responsabil pentru inteligența artificială de la Microsoft și în parteneriat cu experții responsabili în domeniul inteligenței artificiale din cadrul firmei, inclusiv cu Office of Responsible AI de la Microsoft, cu echipele noastre de inginerie, cu Microsoft Research și cu Aether. Puteți afla mai multe despre inteligența artificială responsabilă la Microsoft aici.  

În acest document, descriem abordarea noastră față de inteligența artificială responsabilă pentru Copilot în Bing. Înainte de lansare, am adoptat metode de ultimă generație pentru a identifica, a măsura și a atenua riscurile potențiale și utilizarea abuzivă a sistemului și pentru a-i securiza avantajele pentru utilizatori. Pe măsură ce am continuat să evoluăm Copilot în Bing de la prima lansare, am continuat, de asemenea, să învățăm și să îmbunătățim eforturile noastre responsabile în ceea ce privește inteligența artificială. Acest document va fi actualizat periodic pentru a comunica procesele și metodele noastre în evoluție.   

Termeni cheie  

Copilot în Bing este o experiență de căutare web îmbunătățită pentru inteligența artificială. Pe măsură ce rulează pe o tehnologie puternică, nouă, începem prin definirea unor termeni cheie.  

Modele de învățare programată care ajută la sortarea datelor în clase sau categorii de informații etichetate. În Copilot în Bing, o modalitate prin care utilizăm clasificatorii este să contribuim la detectarea conținutului potențial dăunător remis de utilizatori sau generat de sistem, pentru a atenua generarea conținutului respectiv și utilizarea abuzivă sau abuzivă a sistemului. 

Copilot în Bing este împământată în rezultatele căutării web atunci când utilizatorii caută informații. Aceasta înseamnă că centrăm răspunsul furnizat la interogarea unui utilizator sau solicitarea de conținut de rang înalt de pe web și furnizăm linkuri către site-uri web, astfel încât utilizatorii să poată afla mai multe. Bing clasifică conținutul căutării web în funcție de caracteristicile de ponderare intensă, cum ar fi relevanța, calitatea, credibilitatea și prospețime. Descriem mai în detaliu aceste concepte în Cum livrează Bing rezultatele căutării (consultați "Calitate și credibilitate" în "Cum clasifică Bing rezultatele căutării").   

Considerăm răspunsurile la sol ca fiind răspunsuri de la Copilot în Bing în care declarațiile sunt acceptate de informațiile conținute în sursele de intrare, cum ar fi rezultatele căutării web din interogare sau solicitarea, bază de cunoștințe Bing de informații verificate cu informații și, pentru experiența de chat, istoricul conversațional recent din chat. Răspunsurile nefondate sunt cele în care o instrucțiune nu este împământată în acele surse de intrare.  

Modelele lingvistice mari (LLM) în acest context sunt modele AI care sunt antrenate pentru volume mari de date text pentru a prezice cuvinte în secvențe. Mașinile llM sunt capabile să efectueze o varietate de activități, cum ar fi generarea textului, rezumatul, traducerea, clasificarea și altele.  

Metaprompt este un program care servește pentru a ghida comportamentul sistemului. Unele părți ale programului metaprompt ajută la alinierea comportamentului sistemului la Principiile Microsoft privind inteligența artificială și așteptările utilizatorilor. De exemplu, metapromptul poate include o linie, cum ar fi "comunicarea în limba de alegere a utilizatorului".  

O metodă sau o combinație de metode concepute pentru a reduce riscurile potențiale care pot apărea în urma utilizării caracteristicilor determinate de inteligența artificială în Copilot în Bing.  

Text, voce, imagini și/sau alte interogări activate pe care un utilizator le trimite la Bing ca intrare în model, care alimentează noi experiențe generate de inteligența artificială în Bing. De exemplu, un utilizator poate introduce următoarea solicitare:  

"Planific o excursie pentru aniversarea noastră din septembrie. Care sunt locurile unde putem merge, care sunt într-un zbor de 3 ore de la Londra Heathrow?”  

Textul pe care un utilizator îl trimite la Bing din bara de căutare pentru căutarea web. În acest document, distingem o interogare (pentru căutare web) de o solicitare (pentru experiențe generate de inteligența artificială în Bing). De exemplu, un utilizator poate introduce următoarea interogare pentru a căuta pe web:  

"destinatii de calatorie in apropiere de Aeroportul Heathrow din Londra"  

Tehnici utilizate de experți pentru a evalua limitările și vulnerabilitățile unui sistem și pentru a testa eficiența atenuărilor planificate. Testarea echipei roșii și testarea stresului sunt utilizate pentru a identifica riscurile potențiale și sunt diferite de măsurarea sistematică a riscurilor.   

Textul, imaginea, diagramele etc. care Copilot în Bing ieșirile ca răspuns la o solicitare. Sinonimele pentru "răspuns" includ "finalizare", "generație" și "răspuns". De exemplu, Bing poate oferi următorul răspuns la solicitarea pe care am utilizat-o în definiția "prompt" de mai sus:   

"Felicitări pentru aniversarea ta! Există multe locuri unde puteți merge, care sunt într-un zbor de 3 ore de la Londra Heathrow. Potrivit unei surse, unele dintre evadările din weekend în termen de trei ore cu avionul de londra sunt Bilbao, Copenhaga, Reykjavik, și Stockholm 1, 2. O altă sursă sugerează unele dintre cele mai bune locuri pentru a merge în Europa în luna septembrie sunt Cracovia, Florența, și Lisabona 3, 4. Puteți verifica, de asemenea, zboruri directe de la Londra Heathrow la diferite destinații și a vedea ce atrage la tine 5. Sper să aveți o călătorie minunată!”  

Utilizările intenționate și noile experiențe în domeniul inteligenței artificiale  

Copilot în Bing utilizări sunt să conecteze utilizatorii cu rezultate de căutare relevante, să revizuiască rezultatele de pe web pentru a găsi și a rezuma răspunsurile pe care le caută utilizatorii, a-i ajuta pe utilizatori să își rafineze cercetările pentru a obține răspunsuri cu o experiență de chat și a da un plus de creativitate, ajutându-i pe utilizatori să creeze conținut. Copilot în Bing's generare ai experiențe de mai jos sprijin obiectiv de a fi un copilot ai-alimentat pentru web.  

Rezumat. Atunci când utilizatorii remit o interogare de căutare pe Copilot în Bing, sistemul Bing procesează interogarea, efectuează una sau mai multe căutări pe web și utilizează principalele rezultate de căutare web pentru a genera un rezumat al informațiilor de prezentat utilizatorilor. Aceste rezumate includ referințe pentru a-i ajuta pe utilizatori să vadă și să acceseze cu ușurință rezultatele de căutare utilizate pentru a ajuta la bazele rezumatului. Rezumatele pot apărea în partea dreaptă a paginii cu rezultatele căutării și în cadrul experienței de chat.  

Experiență chat. În plus față de rezumat, utilizatorii pot discuta pe chat cu sistemul Copilot în Bing prin text, imagine sau voce, pot adresa întrebări suplimentare pentru a clarifica căutările și a găsi informații noi și pot trimite solicitări de generare a conținutului creativ. Referințele sunt incluse și în experiența de chat atunci când Copilot în Bing rezumă rezultatele căutării în răspuns.   

Generare de conținut creativ. Atât în experiența chatului, cât și pe pagina de căutare, utilizatorii pot crea poezii, glume, povești, imagini și alte tipuri de conținut cu ajutorul Copilot în Bing.  Imaginile sunt create de Designer (fostul Creator de imagini Bing), iar utilizatorii pot accesa caracteristica prin intermediul paginii de pornire Designer, precum și al paginii Copilot. 

Cum funcționează Copilot în Bing?  

Cu Copilot în Bing, am dezvoltat o abordare inovatoare pentru a aduce MAȘINI LLM de ultimă generație în căutarea web. Atunci când un utilizator introduce o solicitare în Copilot în Bing, solicitarea, istoricul conversațiilor recente, metapromptul și rezultatele de căutare principale sunt trimise ca intrări către LLM. Modelul generează un răspuns utilizând solicitarea utilizatorului și istoricul conversațiilor recente pentru a contextualiza solicitarea, metapromptul pentru a alinia răspunsurile la principiile Microsoft privind inteligența artificială și așteptările utilizatorilor, precum și rezultatele căutării la răspunsurile la sol ale conținutului existent, de rang înalt de pe web.   

Răspunsurile sunt prezentate utilizatorilor în mai multe formate diferite, cum ar fi linkuri tradiționale la conținut web, rezumate generate de inteligența artificială, imagini și răspunsuri la chat. Rezumatele și răspunsurile la chat care se bazează pe rezultatele căutării web vor include referințe și o secțiune "Aflați mai multe" sub răspunsuri, cu linkuri către rezultatele căutării care au fost utilizate pentru a trimite răspunsul. Utilizatorii pot face clic pe aceste linkuri pentru a afla mai multe despre un subiect și informațiile utilizate pentru a trimite rezumatul sau răspunsul pe chat.    

În experiența Copilot, utilizatorii pot efectua căutări web prin conversație, adăugând context la solicitarea lor și interacționând cu răspunsurile sistemului pentru a specifica în continuare interesele lor de căutare. De exemplu, un utilizator poate să pună întrebări suplimentare, să solicite informații suplimentare de clarificare sau să răspundă la sistem într-un mod conversațional. În experiența de chat, utilizatorii pot selecta, de asemenea, un răspuns din sugestiile prescrise, pe care le numim sugestii de chat. Aceste butoane apar după fiecare răspuns de la Copilot și oferă solicitări sugerate pentru a continua conversația în cadrul experienței de chat. Sugestiile de chat apar, de asemenea, împreună cu conținutul rezumat pe pagina cu rezultatele căutării ca punct de intrare pentru experiența de chat.  

Copilot în Bing permite, de asemenea, unui utilizator să creeze povești, poezii, versuri de melodii și imagini cu ajutor de la Bing. Atunci când Copilot în Bing detectează intenția utilizatorului de a genera conținut creativ (de exemplu, solicitarea începe cu "scrie-mi un ..."), sistemul va genera, în majoritatea cazurilor, conținut receptiv la solicitarea utilizatorului. În mod similar, atunci când Copilot în Bing detectează intenția utilizatorului de a genera o imagine (de exemplu, solicitarea începe cu "draw me a ..."), sistemul va genera, în majoritatea cazurilor, o imagine receptivă la solicitarea utilizatorului. În Experiența de căutare vizuală în chat, cu o imagine făcută de camera utilizatorului, încărcată de pe dispozitivul utilizatorului sau legată de pe web, utilizatorii pot solicita Copilot în Bing să înțeleagă contextul, să interpreteze și să răspundă la întrebările despre imagine.  De asemenea, utilizatorii își pot încărca fișierele în Copilot pentru a interpreta, a converti, a procesa sau a calcula informații de la aceștia. În experiența Microsoft Designer pe care o pot accesa utilizatorii prin Copilot în Bing, utilizatorii pot nu doar să genereze imagini utilizând solicitări, ci și să le redimensioneze sau să le restylereze sau să facă editările, cum ar fi estomparea fundalului sau colorarea mai vii. 

Utilizatorii cu conturi Microsoft (MSA) au acum și opțiunea de a se abona la Copilot Pro care oferă o experiență îmbunătățită, inclusiv performanță accelerată și o creare mai rapidă a imaginilor cu inteligența artificială. Copilot Pro este disponibil în prezent în țări limitate și planificăm să facem Copilot Pro disponibile în curând în mai multe piețe.

Pentru a afla mai multe despre Copilot Pro, vizitați aici.

Copilot în Bing depune eforturi pentru a oferi rezultate de căutare diverse și cuprinzătoare, cu angajamentul său de a avea acces liber și deschis la informații. În același timp, eforturile noastre de calitate a produselor includ eforturile noastre de a evita promovarea neintenționată a conținutului potențial dăunător pentru utilizatori. Mai multe informații despre modul în care Bing clasifică conținutul, inclusiv despre modul în care definește relevanța și calitatea și credibilitatea unei pagini web, sunt disponibile în "Reguli pentru webmasterii Bing".   Mai multe informații despre principiile de moderare a conținutului bing sunt disponibile în "Cum livrează Bing rezultatele căutării".   

În experiența Copilot în Windows, Copilot în Bing poate lucra cu sistemul de operare Windows pentru a oferi abilități specifice Windows, cum ar fi modificarea temei sau a fundalului utilizatorului și modificarea setărilor, cum ar fi audio, Bluetooth și rețea. Aceste experiențe permit utilizatorului să-și configureze setările și să își îmbunătățească experiența de utilizator utilizând solicitări în limbaj natural pentru LLM. De asemenea, funcționalitatea specifică aplicației poate fi furnizată de pluginuri de aplicații terțe. Acestea pot automatiza activitățile repetitive și pot obține o eficiență mai mare a utilizatorului. Deoarece llM-urile pot face uneori greșeli, sunt furnizate solicitări de confirmare corespunzătoare ale utilizatorilor, astfel încât utilizatorul să fie arbitrul final al modificărilor care pot fi efectuate. 

Identificarea, măsurarea și atenuarea riscurilor  

La fel ca alte tehnologii de transformare, valorificarea beneficiilor inteligenței artificiale nu este lipsită de riscuri, iar o parte esențială a programului Responsabil pentru inteligența artificială de la Microsoft este proiectată să identifice riscurile potențiale, să măsoare predispoziția acestora și să acumuleze atenuări pentru a le rezolva. Ghidați de Principiile inteligenței artificiale și de standardul nostru responsabil în domeniul inteligenței artificiale, am încercat să identificăm, să măsurăm și să atenuăm riscurile potențiale și utilizarea necorespunzătoare a Copilot în Bing, asigurând în același timp utilizările transformatoare și benefice pe care le oferă noua experiență. În secțiunile de mai jos, descriem abordarea noastră iterativă pentru a identifica, măsura și atenua riscurile potențiale.   

La nivel de model, munca noastră a început cu analize exploratorii ale GPT-4, la sfârșitul verii anului 2022. Printre acestea se numără realizarea de teste extinse cu „echipa roșie” în colaborare cu OpenAI. Această testare a fost concepută pentru a evalua modul în care cea mai recentă tehnologie ar putea funcționa fără a-i aplica vreo măsură de protecție suplimentară. Intenția noastră specială în acest moment a fost de a produce răspunsuri dăunătoare, de a scoate la suprafață căi potențiale de utilizare abuzivă și de a identifica capacitățile și limitările. Învățarea noastră combinată de la OpenAI și Microsoft a contribuit la progrese în dezvoltarea modelelor și, pentru noi, la Microsoft, a informat înțelegerea riscurilor și a contribuit la strategiile de atenuare timpurie pentru Copilot în Bing.  

În plus față de testarea echipei roșii la nivel de model, o echipă de experți a efectuat numeroase runde de testare a echipelor roșii la nivel de aplicație pe Copilot în Bing experiențe ai ai înainte de a le face disponibile public în versiunea noastră limitată. Acest proces ne-a ajutat să înțelegem mai bine modul în care sistemul ar putea fi exploatat de actori adversari și să ne îmbunătățim măsurile de atenuare. Echipa de testare a stresului non-conflictual a evaluat, de asemenea, pe larg noile caracteristici Bing pentru deficiențe și vulnerabilități. După lansare, noile experiențe de inteligență artificială din Bing sunt integrate în infrastructura existentă de măsurare și testare a producției din organizația de inginerie Bing. De exemplu, echipe roșii de testare din diferite regiuni și cu pregătiri diferite încearcă permanent și sistematic să compromită sistemul, iar constatările lor sunt utilizate pentru a extinde seturile de date pe care Bing le utilizează pentru a îmbunătăți sistemul.  

Testarea echipei roșii și testarea stresului pot prezenta instanțe cu riscuri specifice, dar în producție utilizatorii vor purta milioane de conversații diferite cu Copilot în Bing. În plus, conversațiile sunt contextuale și cu mai multe rotiri, iar identificarea conținutului dăunător dintr-o conversație este o activitate complexă. Pentru a înțelege mai bine și a aborda potențialul riscurilor din experiențele Copilot în Bing inteligență artificială, am dezvoltat măsurători suplimentare responsabile privind inteligența artificială specifice noilor experiențe ai ai, pentru măsurarea riscurilor potențiale, cum ar fi jailbreakurile, conținutul dăunător și conținutul nefondat. Am activat, de asemenea, măsurarea la scară prin conducte de măsurare parțial automatizate. De fiecare dată când se modifică produsul, când sunt actualizate atenuările existente sau sunt propuse noi atenuări, noi actualizăm canalele noastre de măsurare pentru a evalua atât performanța produsului, cât și indicatorii inteligenței artificiale responsabile.  

Ca exemplu ilustrativ, canalul de măsurare actualizat parțial automatizat pentru conținutul dăunător include două inovații majore: simularea conversațiilor și adnotarea automată a conversațiilor verificate de om. Mai întâi, experții responsabili în inteligența artificială au construit șabloane pentru a captura structura și conținutul conversațiilor care ar putea avea ca rezultat tipuri diferite de conținut dăunător. Aceste șabloane au fost apoi oferite unui agent de conversație care a interacționat ca utilizator ipotetic cu Copilot în Bing, generând conversații simulate. Pentru a identifica dacă aceste conversații simulate conțin conținut dăunător, am urmat instrucțiuni care sunt utilizate de obicei de lingviști experți pentru a eticheta datele și le-am modificat pentru a fi utilizate de GPT-4 pentru a eticheta conversațiile la scară largă, rafinând regulile până când a existat un acord semnificativ între conversațiile etichetate ca model și conversațiile etichetate cu oameni. În sfârșit, am utilizat conversațiile etichetate ca model pentru a calcula o măsurătoare responsabilă pentru inteligența artificială, care captează eficiența Copilot în Bing la atenuarea conținutului dăunător.   

Canalele noastre de măsurare ne permit să efectuăm rapid măsurători ale riscurilor potențiale la scară. Pe măsură ce identificăm probleme noi în perioada de previzualizare și din testarea continuă a echipei roșii, continuăm să extindem seturile de măsurători pentru a evalua riscurile suplimentare.  

Deoarece am identificat riscuri potențiale și utilizare necorespunzătoare prin procese precum testarea de către echipe roșii și testarea la stres, măsurându-le cu abordările inovatoare descrise mai sus, am dezvoltat atenuări suplimentare față de cele utilizate în căutarea tradițională. Mai jos descriem unele dintre aceste atenuări. Vom continua să monitorizăm experiențele Copilot în Bing inteligență artificială pentru a îmbunătăți performanța produselor și atenuările.  

Lansare pe etape, evaluare continuă. Ne angajăm să învățăm și să îmbunătățim permanent abordarea inteligenței artificiale responsabile, pe măsură ce tehnologiile noastre și comportamentul utilizatorilor evoluează. Strategia noastră de lansare incrementală a fost o parte esențială a modului în care ne mutăm tehnologia în siguranță din laboratoare în lume și ne angajăm la un proces intenționat, atent, pentru a securiza avantajele Copilot în Bing. Limitarea numărului de persoane cu acces în perioada de previzualizare ne-a permis să descoperim cum utilizează utilizatorii Copilot în Bing, inclusiv cum le pot utiliza utilizatorii, astfel încât să putem încerca să atenuăm problemele în curs de dezvoltare înainte de o lansare mai largă. De exemplu, le solicităm utilizatorilor să se autentifice utilizându-și contul Microsoft înainte de a accesa noua experiență Bing completă. Utilizatorii neautenticați pot accesa doar o previzualizare limitată a experienței. Acești pași descurajează abuzurile și ne ajută (după cum este necesar) să luăm măsurile corespunzătoare ca răspuns la încălcările normelor de conduită.  Facem modificări în Copilot în Bing zilnic, pentru a îmbunătăți performanța produselor, a îmbunătăți atenuările existente și a implementa noi atenuări ca răspuns la învățarea noastră în timpul perioadei de previzualizare.  

Împământare în rezultatele căutării. După cum s-a menționat mai sus, Copilot în Bing este proiectat să furnizeze răspunsuri acceptate de informațiile din rezultatele căutării web atunci când utilizatorii caută informații. De exemplu, sistemul este furnizat cu text din rezultatele de căutare de top și instrucțiunile prin intermediul metaprompt pentru a solului răspunsul său. Cu toate acestea, în rezumarea conținutului de pe web, Copilot în Bing poate include informații în răspunsul său care nu sunt prezente în sursele sale de intrare. Cu alte cuvinte, poate produce rezultate nefondate. Evaluările noastre timpurii au indicat faptul că rezultatele nefondate din chat pot fi mai răspândite pentru anumite tipuri de solicitări sau subiecte decât altele, cum ar fi solicitarea de calcule matematice, informații financiare sau de piață (de exemplu, câștigurile firmei, date despre performanța cotațiilor bursiere) și informații precum date exacte ale evenimentelor sau prețuri specifice elementelor. Utilizatorii trebuie întotdeauna să fie precauți și să se folosească de bună opinia lor atunci când vizualizează rezultatele căutării rezumate, fie pe pagina cu rezultatele căutării, fie în experiența de chat. Am luat mai multe măsuri pentru a atenua riscul ca utilizatorii să se poată baza în exces pe conținut generat nefondat în scenariile de rezumare și în experiențele de chat. De exemplu, răspunsurile din Copilot în Bing care se bazează pe rezultatele căutării includ referințe la site-urile web sursă pentru ca utilizatorii să verifice răspunsul și să afle mai multe. Utilizatorilor le este furnizată, de asemenea, o notificare explicită cu mențiunea că aceștia interacționează cu un sistem de inteligență artificială și sunt sfătuiți să verifice pe internet materiale sursă de rezultate web pentru a-i ajuta să facă cea mai bună alegere.  

Clasificatori și metaprompting pe bază de inteligență artificială pentru a atenua riscurile potențiale sau utilizarea necorespunzătoare. Utilizarea de module LLM poate produce conținut problematic care ar putea genera riscuri sau utilizare necorespunzătoare. Printre exemple se numără rezultatele legate de auto-vătămare, violență, conținut grafic, proprietate intelectuală, informații incorecte, discurs plin de ură sau text legat de activități ilegale. Clasificatorii și metapromptingul sunt două exemple de atenuări care au fost implementate în Copilot în Bing pentru a ajuta la reducerea riscului acestor tipuri de conținut. Clasificatorii clasifică textul pentru a semnaliza diferite tipuri de conținut potențial dăunător în interogările de căutare, în solicitările de chat sau în răspunsurile generate. Bing utilizează classifiers și filtre de conținut bazate pe AI, care se aplică tuturor rezultatelor de căutare și caracteristicilor relevante; am proiectat clasificatori de solicitare și filtre de conținut suplimentare, special pentru a trata riscurile posibile generate de caracteristicile Copilot în Bing. Semnalizările duc la atenuări potențiale, cum ar fi nereturnarea conținutului generat către utilizator, redirecționarea utilizatorului la un alt subiect sau redirecționarea utilizatorului la căutarea tradițională. Metaprompting implică oferirea de instrucțiuni modelului pentru a-i ghida comportamentul, inclusiv pentru ca sistemul să se comporte în conformitate cu principiile inteligenței artificiale ale Microsoft și cu așteptările utilizatorilor. De exemplu, metapromptul poate include o linie, cum ar fi "comunicarea în limba de alegere a utilizatorului".   

Protejarea confidențialității în Căutare vizuală din Copilot în Bing. Atunci când utilizatorii încarcă o imagine ca parte a solicitării lor de chat, Copilot în Bing vor utiliza tehnologia de estompare a feței înainte de a trimite imaginea la modelul de inteligență artificială. Estomparea feței este utilizată pentru a proteja confidențialitatea persoanelor din imagine. Tehnologia de estompare a feței se bazează pe indicii contextuale pentru a determina unde să se estompeze și va încerca să estompeze toate fețele. Cu fețele estompate, modelul AI poate compara imaginea introdusă cu cele ale imaginilor disponibile public pe internet. Ca rezultat, de exemplu, Copilot în Bing poate fi capabil de a identifica un jucător de baschet celebru de la o fotografie a acelui jucător pe un teren de baschet prin crearea unei reprezentări numerice care reflectă numărul de tricoul jucătorului, culoare Jersey, prezența unui coș de baschet, etc Copilot în Bing nu stochează reprezentări numerice ale persoanelor din imaginile încărcate și nu le partajează cu terțe părți. Copilot în Bing utilizează reprezentări numerice ale imaginilor pe care utilizatorii le încarcă doar în scopul de a răspunde solicitărilor utilizatorilor, apoi sunt șterse în termen de 30 de zile de la încheierea chatului.    

Dacă utilizatorul solicită Copilot în Bing informații despre o imagine încărcată, răspunsurile la chat pot reflecta impactul estompării feței asupra capacității modelului de a furniza informații despre imaginea încărcată. De exemplu, Copilot în Bing poate descrie pe cineva ca având o față estompată.    

Limitarea descifării conversațiilor. În perioada de previzualizare am aflat că sesiunile de chat foarte lungi pot avea ca rezultat răspunsuri repetitive, nefolositoare sau inconsistente cu tonul intenționat al Copilot în Bing. Pentru a rezolva această descirotare a conversațiilor, am limitat numărul de viraje (schimburi care conțin atât o întrebare de utilizator, cât și un răspuns de la Copilot în Bing) pentru fiecare sesiune de chat. Vom continua să evaluăm abordări suplimentare pentru a atenua această problemă.  

Îmbogățire promptă. În unele cazuri, solicitarea unui utilizator poate fi ambiguă. Atunci când se întâmplă acest lucru, Copilot în Bing poate utiliza LLM pentru a contribui la crearea mai multor detalii în solicitare, pentru a vă asigura că utilizatorii obțin răspunsul pe care îl caută. O astfel de îmbogățire promptă nu se bazează pe cunoștințele utilizatorului sau căutările sale anterioare, ci pe modelul ai. Aceste interogări revizuite vor fi vizibile în istoricul de chat al utilizatorului și, la fel ca alte căutări, pot fi șterse utilizând controalele din produs.  

Proiectarea centrată pe utilizator și intervențiile experienței utilizatorilor. Proiectarea centrată pe utilizatori și experiențele utilizatorilor reprezintă un aspect esențial al abordării Microsoft față de inteligența artificială responsabilă. Scopul este de a rădăcină de produs de proiectare în nevoile și așteptările utilizatorilor. Pe măsură ce utilizatorii interacționează pentru prima dată cu Copilot în Bing, oferim diverse puncte tactile concepute pentru a-i ajuta să înțeleagă capacitățile sistemului, să le dezvăluim că Copilot în Bing este alimentat de inteligența artificială și comunică limitările. Experiența este proiectată în acest mod pentru a-i ajuta pe utilizatori să profite la maximum de Copilot în Bing și să reducă la minimum riscul de exces de experiență. De asemenea, elementele experienței îi ajută pe utilizatori să înțeleagă mai bine Copilot în Bing și interacțiunile lor cu aceasta. Acestea includ sugestii de chat specifice inteligenței artificiale responsabile (de exemplu, cum utilizează Bing inteligența artificială? De ce nu Copilot în Bing răspunde la unele subiecte?), explicațiile limitărilor, modurile în care utilizatorii pot afla mai multe despre modul în care funcționează sistemul și pot raporta feedbackul și referințe navigabile care apar în răspunsuri pentru a le arăta utilizatorilor rezultatele și paginile în care sunt împământate răspunsurile.  

Dezvăluirea inteligenței artificiale. Copilot în Bing oferă mai multe puncte tactile pentru dezvăluirea semnificativă a inteligenței artificiale, în care utilizatorii sunt notificați că interacționează cu un sistem de inteligență artificială, precum și oportunități de a afla mai multe despre Copilot în Bing. Oferind utilizatorilor aceste cunoștințe, îi putem ajuta să evite dependența excesivă de inteligența artificială și să învețe despre punctele forte și limitele sistemului.  

Proveniența media.Microsoft Designer a activat caracteristica "Acreditări de conținut", care utilizează metode criptografice pentru a marca sursa sau "proveniența" tuturor imaginilor generate de AI create pe Designer. Caracteristica inscripționare digitală invizibilă afișează sursa, ora și data creării originale, iar aceste informații nu pot fi modificate. Tehnologia utilizează standarde stabilite de Coaliția pentru Conținut și Autenticitate (C2PA) pentru a adăuga un nivel suplimentar de încredere și transparență pentru imaginile generate de AI. Microsoft este co-fondator al C2PA și a contribuit cu tehnologia de bază de proveniență a conținutului digital. 

Condițiile de utilizare și codul de conduită. Această resursă guvernează utilizarea Copilot în Bing. Utilizatorii ar trebui să respecte Condițiile de utilizare și Codul de conduită, care, printre altele, îi informează despre utilizările admise și nepermise și consecințele încălcării termenilor. Condițiile de utilizare oferă, de asemenea, informații suplimentare pentru utilizatori și servește drept referință utilă pentru utilizatori, pentru a afla despre Copilot în Bing.   

Operațiuni și răspunsuri rapide. De asemenea, utilizăm monitorizarea continuă a Copilot în Bing și procesele operaționale pentru a ne ocupa de cazurile în care Copilot în Bing primește semnale sau primește un raport care indică o posibilă utilizare abuzivă sau încălcare a Condițiilor de utilizare sau a Codului de conduită.  

Feedback, monitorizare și supraveghere. Experiența Copilot în Bing se bazează pe instrumente existente, care le permit utilizatorilor să trimită feedback și să raporteze problemele care sunt revizuite de echipele de operațiuni Microsoft. Procesele operaționale Bing s-au extins, de asemenea, pentru a include caracteristicile din experiența Copilot în Bing, de exemplu, actualizarea paginii Raportați o problemă pentru a include noile tipuri de conținut pe care utilizatorii le generează cu ajutorul modelului.   

Abordarea noastră privind identificarea, măsurarea și atenuarea riscurilor va continua să evolueze pe măsură ce aflăm mai multe și facem deja îmbunătățiri pe baza feedbackului colectat în timpul perioadei de previzualizare.     

Detectarea automată a conținutului. Atunci când utilizatorii încarcă imagini ca parte a solicitării lor de chat, Copilot în Bing implementează instrumente pentru detectarea imaginilor de exploatare sexuală și abuz în copii (CSEAI), în special tehnologia de potrivire a codului hash PhotoDNA. Microsoft a dezvoltat PhotoDNA pentru a ajuta la găsirea dublurilor CSEAI cunoscute. Microsoft raportează toate CSEAI aparente centrului național pentru copii dispăruți și exploatați (NCMEC), conform legislației SUA. Atunci când utilizatorii încarcă fișiere pentru analiză sau procesare, Copilot implementează scanarea automată pentru a detecta conținutul care ar putea duce la riscuri sau utilizare necorespunzătoare, cum ar fi text care ar putea fi legat de activități ilegale sau cod rău intenționat.

Protejarea confidențialității  

Convingerea de lungă durată a Microsoft că confidențialitatea este un drept uman fundamental a informat fiecare etapă a dezvoltării și implementării de către Microsoft a experienței Copilot în Bing. Angajamentele noastre de a proteja confidențialitatea tuturor utilizatorilor, inclusiv prin furnizarea de transparență și control asupra datelor lor și integrarea confidențialității prin proiectare prin minimizarea datelor și limitarea scopului, sunt de bază pentru Copilot în Bing. Pe măsură ce dezvoltăm abordarea noastră pentru a oferi experiențele generatoare de inteligență artificială ale Copilot în Bing, vom explora în permanență cel mai bun mod de a proteja confidențialitatea. Acest document va fi actualizat pe măsură ce facem acest lucru. Mai multe informații despre modul în care Microsoft protejează confidențialitatea utilizatorilor noștri sunt disponibile în Angajamentul de respectare a confidențialității Microsoft.  

În experiența Copilot în Windows, abilitățile Windows pot, ca parte a funcționalității lor, să partajeze informațiile utilizatorilor cu conversația de chat. Acest lucru se supune aprobării utilizatorului, iar solicitările UI sunt afișate pentru a confirma intenția utilizatorului înainte ca informațiile despre utilizator să fie partajate cu conversația de chat.

Microsoft continuă să ia în considerare necesitățile copiilor și tinerilor ca parte a evaluărilor de risc ale noilor caracteristici generatoare de inteligență artificială din Copilot în Bing. Toate conturile de copil Microsoft care identifică utilizatorul cu vârsta sub 13 ani sau așa cum se specifică altfel în legislația locală nu se pot conecta pentru a accesa noua experiență Bing completă.   

După cum este descris mai sus, pentru toți utilizatorii, am implementat garanții care reduc conținutul potențial dăunător. În Copilot în Bing, rezultatele sunt setate ca în Modul strict căutare sigură Bing, care are cel mai înalt nivel de protecție în siguranță în căutarea Bing principală, împiedicând astfel utilizatorii, inclusiv utilizatorii adolescenți, să fie expuși la conținut potențial dăunător. În plus față de informațiile pe care le-am furnizat în acest document și în întrebările frecvente privind caracteristicile de chat, mai multe informații despre modul în care funcționează Copilot în Bing pentru a evita răspunsul cu conținut ofensator neașteptat în rezultatele căutării sunt disponibile aici.  

Microsoft s-a angajat să nu livreze publicitate personalizată pe baza comportamentului online către copiii a căror dată de naștere din contul Microsoft îi identifică ca având o vârstă mai mică de 18 ani. Această protecție importantă se va extinde la reclamele din caracteristicile Copilot în Bing. Utilizatorii pot vedea reclame contextuale pe baza interogării sau solicitării utilizate pentru a interacționa cu Bing.  

Pentru a debloca potențialul transformator al inteligenței artificiale generatoare, trebuie să construim încrederea în tehnologie, oferind persoanelor posibilitatea de a înțelege cum sunt utilizate datele lor și oferindu-le opțiuni și controale semnificative asupra datelor lor. Copilot în Bing este proiectat să prioritizeze agenția umană, furnizând informații despre modul în care funcționează produsul, precum și limitările acestuia și prin extinderea opțiunilor și controalelor robuste pentru consumatori la caracteristicile Copilot în Bing.   

Angajamentul de respectare a confidențialității Microsoft oferă informații despre practicile noastre transparente de confidențialitate pentru protejarea clienților noștri și stabilește informații despre controale care le oferă utilizatorilor noștri posibilitatea de a-și vizualiza și gestiona datele cu caracter personal. Pentru a vă asigura că utilizatorii au informațiile de care au nevoie atunci când interacționează cu noile caracteristici de conversație Bing, divulgările din produs îi informează pe utilizatori că interacționează cu un produs ai inteligenței artificiale și furnizăm linkuri către întrebări frecvente și explicații suplimentare despre modul în care funcționează aceste caracteristici. Microsoft va continua să asculte feedbackul utilizatorilor și va adăuga detalii suplimentare despre caracteristicile de conversație Bing, după cum este necesar pentru a accepta înțelegerea modului în care funcționează produsul.   

De asemenea, Microsoft le oferă utilizatorilor săi instrumente robuste pentru a-și exercita drepturile asupra datelor lor cu caracter personal. Pentru datele colectate de Copilot în Bing, inclusiv prin interogările și solicitările utilizatorilor, Tabloul de bord de confidențialitate Microsoft oferă utilizatorilor autentificați (conectați) instrumente pentru a-și exercita drepturile de subiect al datelor, inclusiv oferindu-le utilizatorilor capacitatea de a vizualiza, a exporta și a șterge istoricul conversațiilor stocate. Microsoft continuă să preia feedback despre modul în care dorește să își gestioneze noua experiență Bing, inclusiv prin utilizarea experiențelor de gestionare a datelor în context.   

Copilot în Bing onora, de asemenea, solicitările din cadrul dreptului european de a fi uitat, urmând procesul pe care Microsoft l-a dezvoltat și l-a rafinat pentru funcționalitatea de căutare tradițională Bing. Toți utilizatorii pot raporta aici preocupările cu privire la conținutul generat și la răspunsurile lor, iar utilizatorii noștri europeni pot utiliza acest formular pentru a remite solicitări de blocare a rezultatelor căutării în Europa, sub dreptul de a fi uitați.   

Copilot în Bing vor respecta opțiunile de confidențialitate ale utilizatorilor, inclusiv pe cele care au fost făcute anterior în Bing, cum ar fi consimțământul pentru colectarea și utilizarea datelor solicitat prin intermediul bannerelor cookie și al controalelor disponibile în Tabloul de bord de confidențialitate Microsoft. Pentru a permite autonomia utilizatorilor și agenția în luarea deciziilor informate, am utilizat procesul nostru intern de revizuire pentru a examina cu atenție modul în care opțiunile sunt prezentate utilizatorilor. 

În plus față de controalele disponibile prin tabloul de bord de confidențialitate Microsoft, care le permit utilizatorilor să vizualizeze, să exporte și să își șteargă istoricul de căutare, inclusiv componentele istoricului chatului, utilizatorii autentificați care au activat caracteristica Istoric chat din produs au capacitatea de a vizualiza, a accesa și a descărca istoricul chatului prin controale în produs. Utilizatorii pot șterge anumite chaturi din istoricul chatului sau pot dezactiva complet funcționalitatea istoricului chatului în orice moment, vizitând pagina Setări Bing. De asemenea, utilizatorii pot alege dacă să permită personalizarea să acceseze o experiență mai personalizată cu răspunsuri personalizate. Utilizatorii pot renunța oricând la personalizare și pot renunța la personalizare, în Setări chat din pagina Setări Bing.  Golirea anumitor chaturi din istoricul chatului împiedică utilizarea acestora pentru personalizare.    Mai multe informații despre istoricul chatului și personalizare sunt furnizate utilizatorilor în întrebări frecvente Copilot în Bing. 

Copilot în Bing a fost creată având în vedere confidențialitatea, astfel încât datele cu caracter personal să fie colectate și utilizate numai după cum este necesar și să nu fie păstrate mai mult decât este necesar. După cum am menționat mai sus, Visual Search în caracteristica Copilot în Bing implementează un mecanism care estompează fețele din imagini în momentul încărcării de către utilizatori, astfel încât imaginile faciale să nu mai fie procesate sau stocate. Mai multe informații despre datele cu caracter personal pe care le colectează Bing, despre modul în care sunt utilizate acestea și despre modul în care sunt stocate și șterse sunt disponibile în Angajamentul de respectare a confidențialității Microsoft, care oferă, de asemenea, informații despre noile caracteristici de chat ale Bing.   

Copilot din Bing are politici de reținere și ștergere a datelor, pentru a se asigura că datele cu caracter personal colectate prin caracteristicile de chat bing sunt păstrate numai atât timp cât este necesar.   

Vom continua să învățăm și să dezvoltăm abordarea noastră în furnizarea Copilot în Bing și, pe măsură ce vom face acest lucru, vom continua să lucrăm în toate disciplinele pentru a alinia inovația inteligenței artificiale cu valorile umane și drepturile fundamentale, inclusiv pentru a proteja utilizatorii tineri și confidențialitatea.   

Copilot cu protecție comercială a datelor 

Copilot cu protecție comercială a datelor, cunoscut anterior ca Bing Chat Enterprise ("BCE"), a fost lansat de Microsoft în versiune preliminară publică gratuită în iulie 2023 ca program de completare gratuit pentru anumiți clienți M365. Copilot cu protecție comercială a datelor este o experiență de căutare web îmbunătățită pentru utilizatorii finali din mediul enterprise. 

La fel ca în cazul Copilot în Bing, atunci când un Copilot cu utilizator final de protecție a datelor comerciale introduce o solicitare în interfață, solicitarea, conversația imediată, rezultatele de căutare de top și metaprompt sunt trimise ca intrări către LLM. Modelul generează un răspuns utilizând istoricul prompt și imediat al conversațiilor, pentru a contextualiza solicitarea, metaprompt pentru a alinia răspunsurile la principiile Microsoft privind inteligența artificială și așteptările utilizatorilor, precum și rezultatele căutării la răspunsurile la sol din conținutul existent, de rang înalt de pe web. Acest lucru funcționează la fel ca Și Copilot în Bing, așa cum este descris mai sus în acest document, cu excepția faptului că Copilot cu protecție comercială a datelor se bazează doar pe istoricul conversațiilor imediate (nu istoricul conversațiilor recente) din cauza istoricului de chat stocat care nu este o caracteristică acceptată în prezent. Designer și Căutare vizuală sunt acum disponibile în această versiune. 

La fel ca alte tehnologii de transformare, valorificarea beneficiilor inteligenței artificiale nu este lipsită de riscuri, iar o parte esențială a programului Responsabil pentru inteligența artificială de la Microsoft este proiectată să identifice riscurile potențiale, să măsoare predispoziția acestora și să acumuleze atenuări pentru a le rezolva. Din nou, descrierea de mai sus a eforturilor Microsoft de a identifica, a măsura și a atenua riscurile potențiale pentru Copilot în Bing se aplică, de asemenea, la această versiune, cu câteva clarificări privind atenuările descrise mai jos: 

Lansare pe etape, evaluare continuă. La fel ca în cazul Copilot Bing, pentru Copilot cu protecție comercială a datelor am adoptat, de asemenea, o abordare treptată a lansării. Pe 18 iulie 2023, Copilot cu protecție comercială a datelor a devenit disponibil ca previzualizare gratuită pentru clienții enterprise eligibili cu conturi M365 specifice, pentru a activa opțiunea pentru utilizatorii finali din mediul enterprise. Treizeci (30) de zile după notificarea clienților enterprise eligibili, Copilot cu protecție comercială a datelor a devenit "implicit" pentru aceiași clienți. Copilot cu protecție comercială a datelor, de asemenea, a devenit disponibil pentru anumite conturi M365 facultate de învățământ. Copilot cu protecție comercială a datelor a devenit disponibil în general anumitor clienți din mediul enterprise la 1 decembrie 2023. În viitor, planificăm să extindem accesul la Copilot cu protecție comercială a datelor pentru mai mulți utilizatori Microsoft Entra ID.

Condițiile de utilizare și codul de conduită. Utilizatorii finali ai Copilot cu protecție comercială a datelor trebuie să respecte Condițiile de utilizare ale utilizatorului final. Aceste condiții de utilizare informează utilizatorii finali cu privire la utilizările admise și nepermise și consecințele încălcării termenilor.  

Operațiuni și răspuns rapid. De asemenea, utilizăm monitorizarea continuă și procesele operaționale ale Copilot în Bing pentru a trata cazurile în care Copilot cu protecție comercială a datelor primește semnale sau primește un raport care indică o posibilă utilizare abuzivă sau încălcare a Condițiilor de utilizare ale utilizatorilor finali

Feedback, monitorizare și supraveghere. Copilot cu protecție comercială a datelor utilizează aceeași instrumentare ca Copilot în Bing pentru ca utilizatorii să trimită feedback și să raporteze preocupările, care sunt revizuite de echipele de operațiuni Microsoft. procesele operaționale ale Copilot în Bing s-au extins, de asemenea, pentru a include caracteristicile din Copilot cu experiențe comerciale de protecție a datelor, de exemplu, actualizarea paginii Raportați o problemă pentru a include noile tipuri de conținut pe care utilizatorii le generează cu ajutorul modelului.  

Pentru a vă asigura că utilizatorii finali au informațiile de care au nevoie atunci când interacționează cu Copilot cu protecția comercială a datelor, în partea de jos a acestui document sunt disponibile documentații despre produs, inclusiv paginile Întrebări frecvente și Aflați mai multe. 

Solicitări și răspunsurile generate de utilizatorii finali din Copilot cu protecție comercială a datelor sunt procesate și stocate în conformitate cu standardele de manipulare a datelor la nivel de întreprindere. Copilot cu oferta comercială de protecție a datelor este disponibilă în prezent doar pentru clienții din mediul enterprise și utilizatorii finali adulți autentificați, astfel că nu anticipăm ca copiii sau tinerii să fie utilizatori finali ai Copilot cu protecție comercială a datelor în acest moment. În plus, Copilot cu protecție comercială a datelor nu oferă publicitate direcționată în mod comportamental utilizatorilor finali. În schimb, toate reclamele afișate sunt doar reclame relevante din punct de vedere contextual.  

Aflați mai multe

Acest document face parte dintr-un efort mai mare al Microsoft de a pune în practică principiile noastre privind inteligența artificială. Pentru a afla mai multe, consultați:

Abordarea Microsoft privind inteligența artificială responsabilă

Microsoft Responsabil ai Standard

Resurse microsoft responsabile pentru inteligența artificială  

Cursuri de învățare Microsoft Azure despre inteligența artificială responsabilă  

Despre acest document  

© Microsoft 2023. Toate drepturile rezervate. Acest document este furnizat "ca atare" și numai în scop informativ. Informațiile și vizualizările exprimate în acest document, inclusiv URL-urile și alte referințe la site-uri Web internet, se pot modifica fără notificare prealabilă. Riscul folosirii acestuia vă revine. Iată câteva exemple doar pentru ilustrație și sunt fictive. Nu este intenționată sau dedusă nicio asociere reală.  

Aveți nevoie de ajutor suplimentar?

Doriți mai multe opțiuni?

Explorați avantajele abonamentului, navigați prin cursurile de instruire, aflați cum să vă securizați dispozitivul și multe altele.

Comunitățile vă ajută să adresați întrebări și să răspundeți la întrebări, să oferiți feedback și să primiți feedback de la experți cu cunoștințe bogate.