Conectați-vă cu Microsoft
Conectați-vă sau creați un cont
Salut,
Selectați un alt cont.
Aveți mai multe conturi
Alegeți contul cu care doriți să vă conectați.

Ultima actualizare: februarie 2024

Noțiuni de bază despre Copilot în Bing   

Introducere  

În februarie 2023, Microsoft a lansat noul Bing, o experiență de căutare web îmbunătățită pentru inteligența artificială. Acesta acceptă utilizatorii rezumând rezultatele căutării web și furnizând o experiență de chat. De asemenea, utilizatorii pot genera conținut creativ, cum ar fi poezii, glume, povești și, cu Creator de imagini Bing, imagini. Noul Bing îmbunătățit pentru inteligența artificială rulează pe o varietate de tehnologii avansate de la Microsoft și OpenAI, inclusiv GPT-4, un model lingvistic de ultimă generație mare (LLM) și DALL-E, un model de învățare profundă pentru a genera imagini digitale din descrierile limbajului natural, ambele din OpenAI. Am lucrat cu ambele modele luni de zile înainte de lansarea publică, pentru a dezvolta un set personalizat de capacități și tehnici pentru a vă alătura acestei tehnologii de ultimă generație ai inteligenței artificiale și căutării web în noul Bing.  În noiembrie 2023, Microsoft a redenumit noul Bing în Copilot în Bing.

La Microsoft, luăm în serios angajamentul nostru față de inteligența artificială responsabilă. Experiența Copilot din Bing a fost dezvoltată în conformitate cu Principiile Microsoft privind inteligența artificială, cu Standardul inteligență artificială responsabilă de la Microsoft și în parteneriat cu experți responsabili în domeniul INTELIGENȚEI din cadrul firmei, inclusiv cu Office pentru inteligență artificială responsabilă de la Microsoft, cu echipele noastre de inginerie, cu Microsoft Research și cu Aether. Puteți afla mai multe despre inteligența artificială responsabilă la Microsoft aici.  

În acest document, descriem abordarea noastră privind inteligența artificială responsabilă pentru Copilot în Bing. Înainte de lansare, am adoptat metode de ultimă generație pentru a identifica, a măsura și a atenua riscurile potențiale și utilizarea abuzivă a sistemului și pentru a-i securiza avantajele pentru utilizatori. Pe măsură ce am continuat să evoluăm copilot în Bing încă de la prima lansare, am continuat, de asemenea, să învățăm și să îmbunătățim eforturile noastre responsabile în ceea ce privește inteligența artificială. Acest document va fi actualizat periodic pentru a comunica procesele și metodele noastre în evoluție.   

Termeni cheie  

Copilot în Bing este o experiență de căutare web îmbunătățită pentru inteligența artificială. Pe măsură ce rulează pe o tehnologie puternică, nouă, începem prin definirea unor termeni cheie.  

Modele de învățare programată care ajută la sortarea datelor în clase sau categorii de informații etichetate. În Copilot din Bing, o modalitate prin care utilizăm clasificatorii este să contribuim la detectarea conținutului potențial dăunător trimis de utilizatori sau generat de sistem, pentru a atenua generarea conținutului respectiv și utilizarea abuzivă sau abuzivă a sistemului. 

Copilot din Bing este împământat în rezultatele căutării web atunci când utilizatorii caută informații. Aceasta înseamnă că centrăm răspunsul furnizat la interogarea unui utilizator sau solicitarea de conținut de rang înalt de pe web și furnizăm linkuri către site-uri web, astfel încât utilizatorii să poată afla mai multe. Bing clasifică conținutul căutării web în funcție de caracteristicile de ponderare intensă, cum ar fi relevanța, calitatea, credibilitatea și prospețime. Descriem aceste concepte în detaliu în Cum livrează Bing Căutare rezultate (consultați "Calitate și credibilitate" în "Cum Căutare rezultatele Bing" în "Cum se clasifică Bing Căutare rezultate").   

Considerăm răspunsurile la sol ca fiind răspunsuri de la Copilot în Bing în care declarațiile sunt acceptate de informațiile conținute în sursele de intrare, cum ar fi rezultatele căutării web din interogare sau solicitare, bază de cunoștințe Bing de informații verificate cu informații și, pentru experiența de chat, istoricul conversațional recent din chat. Răspunsurile nefondate sunt cele în care o instrucțiune nu este împământată în acele surse de intrare.  

Modelele lingvistice mari (LLM) în acest context sunt modele AI care sunt antrenate pentru volume mari de date text pentru a prezice cuvinte în secvențe. Mașinile llM sunt capabile să efectueze o varietate de activități, cum ar fi generarea textului, rezumatul, traducerea, clasificarea și altele.  

Metaprompt este un program care servește pentru a ghida comportamentul sistemului. Unele părți ale programului metaprompt ajută la alinierea comportamentului sistemului la Principiile Microsoft privind inteligența artificială și așteptările utilizatorilor. De exemplu, metapromptul poate include o linie, cum ar fi "comunicarea în limba de alegere a utilizatorului".  

O metodă sau o combinație de metode concepute pentru a reduce riscurile potențiale care pot apărea în urma utilizării caracteristicilor bazate pe inteligența artificială în Copilot din Bing.  

Text, voce, imagini și/sau alte interogări activate pe care un utilizator le trimite la Bing ca intrare în model, care alimentează noi experiențe generate de inteligența artificială în Bing. De exemplu, un utilizator poate introduce următoarea solicitare:  

"Planific o excursie pentru aniversarea noastră din septembrie. Care sunt locurile unde putem merge, care sunt într-un zbor de 3 ore de la Londra Heathrow?”  

Textul pe care un utilizator îl trimite la Bing din bara de căutare pentru căutarea web. În acest document, distingem o interogare (pentru căutare web) de o solicitare (pentru experiențe generate de inteligența artificială în Bing). De exemplu, un utilizator poate introduce următoarea interogare pentru a căuta pe web:  

"destinatii de calatorie in apropiere de Aeroportul Heathrow din Londra"  

Tehnici utilizate de experți pentru a evalua limitările și vulnerabilitățile unui sistem și pentru a testa eficiența atenuărilor planificate. Testarea echipei roșii și testarea stresului sunt utilizate pentru a identifica riscurile potențiale și sunt diferite de măsurarea sistematică a riscurilor.   

Textul, imaginea, diagramele etc. pe care Copilot le creează în Bing ca răspuns la o solicitare. Sinonimele pentru "răspuns" includ "finalizare", "generație" și "răspuns". De exemplu, Bing poate oferi următorul răspuns la solicitarea pe care am utilizat-o în definiția "prompt" de mai sus:   

"Felicitări pentru aniversarea ta! Există multe locuri unde puteți merge, care sunt într-un zbor de 3 ore de la Londra Heathrow. Potrivit unei surse, unele dintre evadările din weekend în termen de trei ore cu avionul de londra sunt Bilbao, Copenhaga, Reykjavik, și Stockholm 1, 2. O altă sursă sugerează unele dintre cele mai bune locuri pentru a merge în Europa în luna septembrie sunt Cracovia, Florența, și Lisabona 3, 4. Puteți verifica, de asemenea, zboruri directe de la Londra Heathrow la diferite destinații și a vedea ce atrage la tine 5. Sper să aveți o călătorie minunată!”  

Utilizările intenționate și noile experiențe în domeniul inteligenței artificiale  

Copilot din utilizările bing sunt să conecteze utilizatorii cu rezultate de căutare relevante, să revizuiască rezultatele de pe web pentru a găsi și a rezuma răspunsurile pe care le caută utilizatorii, a-i ajuta pe utilizatori să își rafineze cercetările pentru a obține răspunsuri cu o experiență de chat și a da un plus de creativitate, ajutându-i pe utilizatori să creeze conținut. Copilot în experiențele ai generative Bing de mai jos susțin obiectivul de a fi un copilot susținut de INTELIGENȚĂ artificială pentru web.  

Rezumat. Atunci când utilizatorii trimit o interogare de căutare pe Copilot în Bing, sistemul Bing procesează interogarea, efectuează una sau mai multe căutări pe web și utilizează principalele rezultate de căutare web pentru a genera un rezumat al informațiilor de prezentat utilizatorilor. Aceste rezumate includ referințe pentru a-i ajuta pe utilizatori să vadă și să acceseze cu ușurință rezultatele de căutare utilizate pentru a ajuta la bazele rezumatului. Rezumatele pot apărea în partea dreaptă a paginii cu rezultatele căutării și în cadrul experienței de chat.  

Experiență chat. În plus față de rezumat, utilizatorii pot discuta pe chat cu Copilot în sistemul Bing prin text, imagine sau voce, pot adresa întrebări suplimentare pentru a clarifica căutările și a găsi informații noi și pot trimite solicitări de a genera conținut creativ. De asemenea, referințele sunt incluse în experiența de chat atunci când Copilot din Bing rezumă rezultatele căutării în răspuns.   

Generare de conținut creativ. Atât în experiența chatului, cât și pe pagina de căutare, utilizatorii pot crea poezii, glume, povești, imagini și alte tipuri de conținut cu ajutor de la Copilot în Bing.  Imaginile sunt create de Designer (fostul Creator de imagini Bing), iar utilizatorii pot accesa caracteristica prin intermediul paginii de pornire Designer, precum și al paginii Copilot. 

Cum funcționează Copilot în Bing?  

Cu Copilot în Bing, am dezvoltat o abordare inovatoare pentru a aduce llM-uri de ultimă generație în căutarea web. Atunci când un utilizator introduce o solicitare în Copilot în Bing, solicitarea, istoricul conversațiilor recente, metapromptul și rezultatele de căutare principale sunt trimise ca intrări către LLM. Modelul generează un răspuns utilizând solicitarea utilizatorului și istoricul conversațiilor recente pentru a contextualiza solicitarea, metapromptul pentru a alinia răspunsurile la principiile Microsoft privind inteligența artificială și așteptările utilizatorilor, precum și rezultatele căutării la răspunsurile la sol ale conținutului existent, de rang înalt de pe web.   

Răspunsurile sunt prezentate utilizatorilor în mai multe formate diferite, cum ar fi linkuri tradiționale la conținut web, rezumate generate de inteligența artificială, imagini și răspunsuri la chat. Rezumatele și răspunsurile la chat care se bazează pe rezultatele căutării web vor include referințe și o secțiune "Aflați mai multe" sub răspunsuri, cu linkuri către rezultatele căutării care au fost utilizate pentru a trimite răspunsul. Utilizatorii pot face clic pe aceste linkuri pentru a afla mai multe despre un subiect și informațiile utilizate pentru a trimite rezumatul sau răspunsul pe chat.    

În experiența Copilot, utilizatorii pot efectua căutări web prin conversație, adăugând context la solicitarea lor și interacționând cu răspunsurile sistemului pentru a specifica în continuare interesele lor de căutare. De exemplu, un utilizator poate să pună întrebări suplimentare, să solicite informații suplimentare de clarificare sau să răspundă la sistem într-un mod conversațional. În experiența de chat, utilizatorii pot selecta, de asemenea, un răspuns din sugestiile prescrise, pe care le numim sugestii de chat. Aceste butoane apar după fiecare răspuns de la Copilot și oferă solicitări sugerate pentru a continua conversația în cadrul experienței de chat. Sugestiile de chat apar, de asemenea, împreună cu conținutul rezumat pe pagina cu rezultatele căutării ca punct de intrare pentru experiența de chat.  

Copilot din Bing permite, de asemenea, unui utilizator să creeze povești, poezii, versuri de melodii și imagini cu ajutor de la Bing. Atunci când Copilot din Bing detectează intenția utilizatorului de a genera conținut creativ (de exemplu, solicitarea începe cu "scrie-mi un ..."), sistemul va genera, în majoritatea cazurilor, conținut receptiv la solicitarea utilizatorului. În mod similar, atunci când Copilot din Bing detectează intenția utilizatorului de a genera o imagine (de exemplu, solicitarea începe cu "draw me a ..."), sistemul va genera, în majoritatea cazurilor, o imagine receptivă la solicitarea utilizatorului. În Visual Căutare din experiența chatului, cu o imagine făcută de camera utilizatorului, încărcată de pe dispozitivul utilizatorului sau legată de pe web, utilizatorii pot solicita copilotului din Bing să înțeleagă contextul, să interpreteze și să răspundă la întrebările despre imagine.  De asemenea, utilizatorii își pot încărca fișierele în Copilot pentru a interpreta, a converti, a procesa sau a calcula informații de la aceștia. În experiența Microsoft Designer pe care o pot accesa utilizatorii prin Copilot în Bing, utilizatorii pot nu doar să genereze imagini utilizând solicitări, ci și să le redimensioneze sau să le restabilească sau să facă editările, cum ar fi estomparea fundalului sau transformarea culorilor în culori mai vii. 

Utilizatorii cu conturi Microsoft (MSA) au acum și opțiunea de a se abona la Copilot Pro care oferă o experiență îmbunătățită, inclusiv performanță accelerată, crearea mai rapidă a imaginilor cu AI și, în curând, capacitatea de a vă crea propriile GPTS Copilot. Copilot Pro este disponibil în prezent în țări limitate și planificăm să facem Copilot Pro disponibile în curând în mai multe piețe.

În experiența Copilot, utilizatorii pot accesa GPTS Copilot. Un Copilot GPT, la fel ca Designer GPT, este o versiune personalizată a Microsoft Copilot pe un subiect care este de interes special pentru tine, cum ar fi fitness, călătorie, și gătit, care poate ajuta la transformarea ideilor vagi sau generale în prompturi mai specifice, cu rezultate, inclusiv texte și imagini. În Copilot utilizatorii pot vedea GPTS Copilot disponibile, iar utilizatorii cu conturi Copilot Pro vor avea acces în curând la Copilot GPT Builder, o caracteristică care permite utilizatorilor să creeze și să configureze un Copilot GPT personalizat. Atenuările responsabil ai menționate mai sus pentru Copilot în Bing se aplică pentru GPTS Copilot.

Pentru a afla mai multe despre cum funcționează GPG-ul Copilot Pro și Copilot, vizitați aici.

Copilot din Bing se străduiește să furnizeze rezultate de căutare diverse și cuprinzătoare, cu angajamentul său de a avea acces liber și deschis la informații. În același timp, eforturile noastre de calitate a produselor includ eforturile noastre de a evita promovarea neintenționată a conținutului potențial dăunător pentru utilizatori. Mai multe informații despre modul în care Bing clasifică conținutul, inclusiv despre modul în care definește relevanța și calitatea și credibilitatea unei pagini web, sunt disponibile în "Reguli pentru webmasterii Bing".   Mai multe informații despre principiile de moderare a conținutului bing sunt disponibile în "Cum livrează Bing rezultatele căutării".   

În experiența Copilot în Windows, Copilot din Bing poate lucra cu sistemul de operare Windows pentru a oferi abilități specifice Windows, cum ar fi schimbarea temei sau fundalului utilizatorului și modificarea setărilor, cum ar fi audio, Bluetooth și rețelele. Aceste experiențe permit utilizatorului să-și configureze setările și să își îmbunătățească experiența de utilizator utilizând solicitări în limbaj natural pentru LLM. De asemenea, funcționalitatea specifică aplicației poate fi furnizată de pluginuri de aplicații terțe. Acestea pot automatiza activitățile repetitive și pot obține o eficiență mai mare a utilizatorului. Deoarece llM-urile pot face uneori greșeli, sunt furnizate solicitări de confirmare corespunzătoare ale utilizatorilor, astfel încât utilizatorul să fie arbitrul final al modificărilor care pot fi efectuate. 

Identificarea, măsurarea și atenuarea riscurilor  

La fel ca alte tehnologii de transformare, valorificarea beneficiilor inteligenței artificiale nu este lipsită de riscuri, iar o parte esențială a programului Responsabil pentru inteligența artificială de la Microsoft este proiectată să identifice riscurile potențiale, să măsoare predispoziția acestora și să acumuleze atenuări pentru a le rezolva. Ghidați de Principiile inteligenței artificiale și de Standardul responsabil pentru inteligența artificială, am încercat să identificăm, să măsurăm și să atenuăm riscurile potențiale și utilizarea necorespunzătoare a Copilot în Bing, asigurând în același timp utilizările transformatoare și benefice pe care le oferă noua experiență. În secțiunile de mai jos descriem abordarea noastră iterativă pentru a identifica, a măsura și a atenua riscurile potențiale.   

La nivel de model, munca noastră a început cu analize exploratorii ale GPT-4 la sfârșitul verii anului 2022. Printre acestea se numără realizarea de teste extinse cu echipa roșie în colaborare cu OpenAI. Această testare a fost concepută pentru a evalua modul în care cea mai recentă tehnologie ar funcționa fără să i se aplice garanții suplimentare. Intenția noastră specifică în acest moment a fost de a produce răspunsuri dăunătoare, căi potențiale surface pentru utilizare necorespunzătoare și de a identifica capacitățile și limitările. Învățarea noastră combinată de la OpenAI și Microsoft a contribuit la progrese în dezvoltarea modelelor și, pentru noi, la Microsoft, a informat înțelegerea riscurilor și a contribuit la strategiile de atenuare timpurie pentru Copilot în Bing.  

În plus față de testarea echipei roșii la nivel de model, o echipă de experți a efectuat numeroase runde de testare a echipelor roșii la nivel de aplicație pe Copilot în experiențele Bing AI înainte de a le face disponibile public în versiunea noastră limitată de previzualizare. Acest proces ne-a ajutat să înțelegem mai bine cum ar putea sistemul să fie exploatat de către actori adversari și să ne îmbunătățim atenuările. Testerii de stres non-conflictuali au evaluat, de asemenea, pe larg noile caracteristici Bing pentru deficiențe și vulnerabilități. După lansare, noile experiențe cu inteligență artificială din Bing sunt integrate în infrastructura existentă de măsurare și testare a producției din organizația de inginerie Bing. De exemplu, testerii de echipă roșie din diferite regiuni și fundaluri încearcă încontinuu și sistematic să compromită sistemul, iar constatările lor sunt utilizate pentru a extinde seturile de date pe care bing le utilizează pentru îmbunătățirea sistemului.  

Testarea echipei roșii și testarea stresului pot afișa instanțe cu riscuri specifice, dar în producție utilizatorii vor avea milioane de conversații diferite cu Copilot în Bing. În plus, conversațiile sunt contextuale și cu mai multe rotiri, iar identificarea conținutului dăunător dintr-o conversație este o activitate complexă. Pentru a înțelege și a aborda mai bine potențialul riscurilor din Copilot în experiențele Bing AI, am dezvoltat măsurători suplimentare responsabile privind inteligența artificială specifice acestor experiențe ai noi pentru măsurarea riscurilor potențiale, cum ar fi jailbreakuri, conținut dăunător și conținut nefondat. De asemenea, am activat măsurarea la scară prin canale de măsurare parțial automatizate. De fiecare dată când se modifică produsul, sunt actualizate atenuările existente sau sunt propuse noi atenuări, actualizăm canalele noastre de măsurare pentru a evalua atât performanța produsului, cât și măsurătorile responsabile pentru inteligența artificială.  

Ca exemplu ilustrativ, canalul de măsurare actualizat parțial automatizat pentru conținutul dăunător include două inovații majore: simularea conversațiilor și adnotarea automată a conversațiilor verificate de om. Mai întâi, experții responsabili în inteligența artificială au construit șabloane pentru a captura structura și conținutul conversațiilor care ar putea avea ca rezultat tipuri diferite de conținut dăunător. Aceste șabloane au fost apoi oferite unui agent de conversație care a interacționat ca un utilizator ipotetic cu Copilot în Bing, generând conversații simulate. Pentru a identifica dacă aceste conversații simulate conțin conținut dăunător, am urmat instrucțiuni care sunt utilizate de obicei de lingviști experți pentru a eticheta datele și le-am modificat pentru a fi utilizate de GPT-4 pentru a eticheta conversațiile la scară largă, rafinând regulile până când a existat un acord semnificativ între conversațiile etichetate ca model și conversațiile etichetate cu oameni. În sfârșit, am utilizat conversațiile etichetate cu modele pentru a calcula o măsurătoare responsabilă pentru inteligența artificială, care captează eficiența Copilot în Bing, atenuând conținutul dăunător.   

Conductele noastre de măsurare ne permit să efectuăm rapid măsurători ale riscurilor potențiale la scară. Pe măsură ce identificăm probleme noi în perioada de previzualizare și prin testarea continuă a echipei roșii, continuăm să extindem seturile de măsurători pentru a evalua riscurile suplimentare.  

Deoarece am identificat riscurile potențiale și utilizarea necorespunzătoare prin procese precum testarea echipei roșii și testarea stresului și le-am măsurat cu abordările inovatoare descrise mai sus, am dezvoltat atenuări suplimentare pentru cele utilizate pentru căutarea tradițională. Mai jos descriem unele dintre aceste atenuări. Vom continua monitorizarea Copilot în Bing AI experiențe pentru a îmbunătăți performanța și atenuările produselor.  

Lansare pe etape, evaluare continuă. Ne angajăm să învățăm și să îmbunătățim permanent abordarea responsabilă privind inteligența artificială, pe măsură ce tehnologiile și comportamentul utilizatorilor evoluează. Strategia noastră de lansare incrementală a fost o parte esențială a modului în care ne mutăm tehnologia în siguranță din laboratoare în lume și ne angajăm la un proces intenționat, atent, pentru a securiza avantajele Copilot în Bing. Limitarea numărului de persoane cu acces în perioada de previzualizare ne-a permis să descoperim modul în care oamenii utilizează Copilot în Bing, inclusiv modul în care utilizatorii îl pot utiliza greșit, astfel încât să putem încerca să atenuăm problemele în curs de dezvoltare înainte de lansarea pe scară mai largă. De exemplu, le solicităm utilizatorilor să se autentifice utilizându-și contul Microsoft înainte de a accesa noua experiență Bing completă. Utilizatorii neautenticați pot accesa doar o previzualizare limitată a experienței. Acești pași descurajează abuzurile și ne ajută (după cum este necesar) să luăm măsurile corespunzătoare ca răspuns la încălcările normelor de conduită.  Facem modificări zilnic la Copilot în Bing, pentru a îmbunătăți performanța produselor, a îmbunătăți atenuările existente și a implementa noi atenuări ca răspuns la învățarea noastră în timpul perioadei de previzualizare.  

Împământare în rezultatele căutării. După cum s-a menționat mai sus, Copilot din Bing este proiectat să ofere răspunsuri acceptate de informațiile din rezultatele căutării web atunci când utilizatorii caută informații. De exemplu, sistemul este furnizat cu text din rezultatele de căutare de top și instrucțiunile prin intermediul metaprompt pentru a solului răspunsul său. Cu toate acestea, în rezumarea conținutului de pe web, Copilot din Bing poate include informații în răspunsul său care nu sunt prezente în sursele sale de intrare. Cu alte cuvinte, poate produce rezultate nefondate. Evaluările noastre timpurii au indicat faptul că rezultatele nefondate din chat pot fi mai răspândite pentru anumite tipuri de solicitări sau subiecte decât altele, cum ar fi solicitarea de calcule matematice, informații financiare sau de piață (de exemplu, câștigurile firmei, date despre performanța cotațiilor bursiere) și informații precum date exacte ale evenimentelor sau prețuri specifice elementelor. Utilizatorii trebuie întotdeauna să fie precauți și să se folosească de bună opinia lor atunci când vizualizează rezultatele căutării rezumate, fie pe pagina cu rezultatele căutării, fie în experiența de chat. Am luat mai multe măsuri pentru a atenua riscul ca utilizatorii să se poată baza în exces pe conținut generat nefondat în scenariile de rezumare și în experiențele de chat. De exemplu, răspunsurile din Copilot din Bing care se bazează pe rezultatele căutării includ referințe la site-urile sursă pentru ca utilizatorii să verifice răspunsul și să afle mai multe. Utilizatorii sunt, de asemenea, furnizate cu notificare explicită că acestea sunt interacționează cu un sistem de AI și sfătuiți să verificați web materiale sursă de rezultate pentru a-i ajuta să folosească cea mai bună judecata lor.  

Clasificatori bazați pe AI și care se aplică metaprompting pentru a atenua riscurile potențiale sau utilizarea necorespunzătoare. Utilizarea LM-urilor poate produce conținut problematic care ar putea duce la riscuri sau utilizare necorespunzătoare. Printre exemple se numără rezultatele legate de autovătămare, violență, conținut grafic, proprietate intelectuală, informații incorecte, discurs plin de ură sau text care ar putea avea legătură cu activități ilegale. Classifiers and metaprompting sunt două exemple de atenuări care au fost implementate în Copilot în Bing pentru a contribui la reducerea riscului acestor tipuri de conținut. Classifiers clasifică textul pentru a semnaliza diferite tipuri de conținut potențial dăunător în interogările de căutare, solicitările de chat sau răspunsurile generate. Bing utilizează classifiers și filtre de conținut bazate pe AI, care se aplică tuturor rezultatelor de căutare și caracteristicilor relevante; am proiectat classifiers și filtre de conținut suplimentare prompte special pentru a trata riscurile posibile generate de Copilot în caracteristicile Bing. Semnalizările duc la atenuări potențiale, cum ar fi nereturnarea conținutului generat către utilizator, redirecționarea utilizatorului la un alt subiect sau redirecționarea utilizatorului la căutarea tradițională. Metaprompting implică oferirea de instrucțiuni modelului pentru a-i ghida comportamentul, inclusiv pentru ca sistemul să se comporte în conformitate cu Principiile inteligenței artificiale de la Microsoft și așteptările utilizatorilor. De exemplu, metapromptul poate include o linie, cum ar fi "comunicarea în limba de alegere a utilizatorului".   

Protejarea confidențialității în Visual Căutare din Copilot în Bing. Atunci când utilizatorii încarcă o imagine ca parte a solicitării lor de chat, Copilot din Bing va utiliza tehnologia de estompare a feței înainte de a trimite imaginea la modelul ai. Estomparea feței este utilizată pentru a proteja confidențialitatea persoanelor din imagine. Tehnologia de estompare a feței se bazează pe indicii contextuale pentru a determina unde să se estompeze și va încerca să estompeze toate fețele. Cu fețele estompate, modelul AI poate compara imaginea introdusă cu cele ale imaginilor disponibile public pe internet. Prin urmare, de exemplu, Copilot în Bing poate fi capabil să identifice un jucător de baschet celebru dintr-o fotografie a acelui jucător pe un teren de baschet prin crearea unei reprezentări numerice care reflectă numărul de jersey al jucătorului, culoare jersey, prezența unui coș de baschet, etc. Copilot în Bing nu stochează reprezentări numerice ale persoanelor din imaginile încărcate și nu le partajează cu terțe părți. Copilot din Bing utilizează reprezentări numerice ale imaginilor pe care utilizatorii le încarcă doar în scopul de a răspunde la solicitările utilizatorilor, apoi sunt șterse în termen de 30 de zile de la încheierea chatului.    

Dacă utilizatorul cere de la Copilot în Bing informații despre o imagine încărcată, răspunsurile la chat pot reflecta impactul estompării feței asupra capacității modelului de a furniza informații despre imaginea încărcată. De exemplu, Copilot din Bing poate descrie pe cineva ca având o față estompată.    

Limitarea descifării conversațiilor. În perioada de previzualizare am aflat că sesiunile de chat foarte lungi pot avea ca rezultat răspunsuri repetitive, nefolositoare sau inconsistente cu Copilot pe tonul dorit de Bing. Pentru a rezolva această descivrare a conversațiilor, am limitat numărul de viraje (schimburi care conțin atât o întrebare de utilizator, cât și un răspuns de la Copilot în Bing) pentru fiecare sesiune de chat. Vom continua să evaluăm abordări suplimentare pentru a atenua această problemă.  

Îmbogățire promptă. În unele cazuri, solicitarea unui utilizator poate fi ambiguă. Atunci când se întâmplă acest lucru, Copilot din Bing poate utiliza LLM pentru a contribui la crearea mai multor detalii în solicitare, pentru a se asigura că utilizatorii primesc răspunsul pe care îl caută. O astfel de îmbogățire promptă nu se bazează pe cunoștințele utilizatorului sau căutările sale anterioare, ci pe modelul ai. Aceste interogări revizuite vor fi vizibile în istoricul de chat al utilizatorului și, la fel ca alte căutări, pot fi șterse utilizând controalele din produs.  

Proiectarea centrată pe utilizator și intervențiile experienței utilizatorilor. Proiectarea centrată pe utilizatori și experiențele utilizatorilor reprezintă un aspect esențial al abordării Microsoft față de inteligența artificială responsabilă. Scopul este de a rădăcină de produs de proiectare în nevoile și așteptările utilizatorilor. Pe măsură ce utilizatorii interacționează pentru prima dată cu Copilot în Bing, oferim diverse puncte tactile concepute pentru a-i ajuta să înțeleagă capacitățile sistemului, să le spunem că Copilot din Bing este alimentat de inteligența artificială și comunică limitările. Experiența este proiectată în acest mod pentru a-i ajuta pe utilizatori să profite la maximum de Copilot în Bing și să minimizeze riscul de exces de experiență. De asemenea, elementele experienței îi ajută pe utilizatori să înțeleagă mai bine Copilot în Bing și interacțiunile lor cu aceasta. Acestea includ sugestii de chat specifice inteligenței artificiale responsabile (de exemplu, cum utilizează Bing inteligența artificială? De ce nu răspunde Copilot în Bing la unele subiecte?), explicații privind limitările, moduri în care utilizatorii pot afla mai multe despre modul în care funcționează sistemul și pot raporta feedbackul și referințe navigabile ușor care apar în răspunsuri pentru a le arăta utilizatorilor rezultatele și paginile în care sunt împământate răspunsurile.  

Dezvăluirea inteligenței artificiale. Copilot din Bing oferă mai multe puncte tactile pentru dezvăluirea semnificativă a inteligenței artificiale, în care utilizatorii sunt notificați că interacționează cu un sistem AI, precum și oportunități de a afla mai multe despre Copilot în Bing. Capacitarea utilizatorilor cu aceste cunoștințe îi poate ajuta să evite să se bazeze în exces pe inteligența artificială și să învețe despre punctele forte și limitările sistemului.  

Proveniența media.Microsoft Designer a activat caracteristica "Acreditări de conținut", care utilizează metode criptografice pentru a marca sursa sau "proveniența" tuturor imaginilor generate de AI create pe Designer. Caracteristica inscripționare digitală invizibilă afișează sursa, ora și data creării originale, iar aceste informații nu pot fi modificate. Tehnologia utilizează standarde stabilite de Coaliția pentru Conținut și Autenticitate (C2PA) pentru a adăuga un nivel suplimentar de încredere și transparență pentru imaginile generate de AI. Microsoft este co-fondator al C2PA și a contribuit cu tehnologia de bază de proveniență a conținutului digital. 

Condițiile de utilizare și codul de conduită. Această resursă guvernează utilizarea Copilot în Bing. Utilizatorii ar trebui să respecte Condițiile de utilizare și Codul de conduită, care, printre altele, îi informează despre utilizările admise și nepermise și consecințele încălcării termenilor. Condițiile de utilizare oferă, de asemenea, dezvăluiri suplimentare pentru utilizatori și servește drept referință utilă pentru utilizatori, pentru a afla despre Copilot în Bing.   

Operațiuni și răspuns rapid. De asemenea, utilizăm Copilot în procesele continue de monitorizare și operaționale ale Bing pentru a trata momentul în care Copilot din Bing primește semnale sau primește un raport care indică o posibilă utilizare abuzivă sau încălcare a Condițiilor de utilizare sau a Codului de conduită.  

Feedback, monitorizare și supraveghere. Experiența Copilot din Bing se bazează pe instrumente existente, care le permit utilizatorilor să trimită feedback și să raporteze problemele care sunt revizuite de echipele de operațiuni Microsoft. Procesele operaționale Bing s-au extins, de asemenea, pentru a include caracteristicile din Copilot în experiența Bing, de exemplu, actualizarea paginii Raportați o problemă pentru a include noile tipuri de conținut pe care utilizatorii le generează cu ajutorul modelului.   

Abordarea noastră privind identificarea, măsurarea și atenuarea riscurilor va continua să evolueze pe măsură ce aflăm mai multe și facem deja îmbunătățiri pe baza feedbackului colectat în timpul perioadei de previzualizare.     

Detectarea automată a conținutului. Atunci când utilizatorii încarcă imagini ca parte a solicitării lor de chat, Copilot din Bing implementează instrumente pentru detectarea imaginilor de exploatare sexuală și abuz în copii (CSEAI), în special tehnologia de potrivire a hash-urilor PhotoDNA. Microsoft a dezvoltat PhotoDNA pentru a ajuta la găsirea dublurilor CSEAI cunoscute. Microsoft raportează toate CSEAI aparente centrului național pentru copii dispăruți și exploatați (NCMEC), conform legislației SUA. Atunci când utilizatorii încarcă fișiere pentru analiză sau procesare, Copilot implementează scanarea automată pentru a detecta conținutul care ar putea duce la riscuri sau utilizare necorespunzătoare, cum ar fi text care ar putea fi legat de activități ilegale sau cod rău intenționat.

Protejarea confidențialității  

Convingerea de lungă durată a Microsoft că confidențialitatea este un drept uman fundamental a informat fiecare etapă a dezvoltării și implementării Copilot de către Microsoft în experiența Bing. Angajamentele noastre de a proteja confidențialitatea tuturor utilizatorilor, inclusiv prin furnizarea de transparență și control asupra datelor lor și integrarea confidențialității prin proiectare prin minimizarea datelor și limitarea scopului, sunt fundamentate pentru Copilot în Bing. Pe măsură ce dezvoltăm abordarea noastră pentru a oferi Copilot în experiențele de inteligență artificială generativă Bing, vom explora în permanență cel mai bun mod de a proteja confidențialitatea. Acest document va fi actualizat pe măsură ce facem acest lucru. Mai multe informații despre modul în care Microsoft protejează confidențialitatea utilizatorilor noștri sunt disponibile în Angajamentul de respectare a confidențialității Microsoft.  

În experiența Copilot în Windows, abilitățile Windows pot, ca parte a funcționalității lor, să partajeze informațiile utilizatorilor cu conversația pe chat. Acest lucru se supune aprobării utilizatorului, iar solicitările UI sunt afișate pentru a confirma intenția utilizatorului înainte ca informațiile despre utilizator să fie partajate cu conversația de chat.

Microsoft continuă să ia în considerare necesitățile copiilor și tinerilor ca parte a evaluărilor de risc ale noilor caracteristici generare ale inteligenței artificiale din Copilot în Bing. Toate conturile de copil Microsoft care identifică utilizatorul cu vârsta sub 13 ani sau așa cum se specifică altfel în legislația locală nu se pot conecta pentru a accesa noua experiență Bing completă.   

După cum este descris mai sus, pentru toți utilizatorii, am implementat garanții care reduc conținutul potențial dăunător. În Copilot din Bing, rezultatele sunt setate ca în Modul strict căutare sigură Bing, care are cel mai înalt nivel de protecție în siguranță în căutarea Bing principală, împiedicând astfel utilizatorii, inclusiv utilizatorii adolescenți, să fie expuși la conținut potențial dăunător. În plus față de informațiile pe care le-am furnizat în acest document și în întrebările frecvente privind caracteristicile de chat, mai multe informații despre modul în care funcționează Copilot în Bing pentru a evita răspunsul cu conținut ofensator neașteptat în rezultatele căutării sunt disponibile aici.  

Microsoft s-a angajat să nu livreze publicitate personalizată pe baza comportamentului online către copiii a căror dată de naștere din contul Microsoft îi identifică ca având o vârstă mai mică de 18 ani. Această protecție importantă se va extinde la reclamele din Copilot din caracteristicile Bing. Utilizatorii pot vedea reclame contextuale pe baza interogării sau solicitării utilizate pentru a interacționa cu Bing.  

Pentru a debloca potențialul transformator al inteligenței artificiale generatoare, trebuie să construim încrederea în tehnologie, oferind persoanelor posibilitatea de a înțelege cum sunt utilizate datele lor și oferindu-le opțiuni și controale semnificative asupra datelor lor. Copilot din Bing este proiectat să prioritizeze agenția umană, prin furnizarea de informații despre modul în care funcționează produsul, precum și limitările sale, și prin extinderea opțiunilor și controalelor robuste pentru consumatori la Copilot în caracteristicile Bing.   

Angajamentul de respectare a confidențialității Microsoft oferă informații despre practicile noastre transparente de confidențialitate pentru protejarea clienților noștri și stabilește informații despre controale care le oferă utilizatorilor noștri posibilitatea de a-și vizualiza și gestiona datele cu caracter personal. Pentru a vă asigura că utilizatorii au informațiile de care au nevoie atunci când interacționează cu noile caracteristici de conversație Bing, divulgările din produs îi informează pe utilizatori că interacționează cu un produs ai inteligenței artificiale și furnizăm linkuri către întrebări frecvente și explicații suplimentare despre modul în care funcționează aceste caracteristici. Microsoft va continua să asculte feedbackul utilizatorilor și va adăuga detalii suplimentare despre caracteristicile de conversație Bing, după cum este necesar pentru a accepta înțelegerea modului în care funcționează produsul.   

De asemenea, Microsoft le oferă utilizatorilor săi instrumente robuste pentru a-și exercita drepturile asupra datelor lor cu caracter personal. Pentru datele colectate de Copilot în Bing, inclusiv prin interogările și solicitările utilizatorilor, Tabloul de bord de confidențialitate Microsoft le oferă utilizatorilor autentificați (conectați) instrumente pentru a-și exercita drepturile de subiect al datelor, inclusiv prin oferirea utilizatorilor posibilitatea de a vizualiza, exporta și șterge istoricul conversațiilor stocate. Microsoft continuă să preia feedback despre modul în care dorește să își gestioneze noua experiență Bing, inclusiv prin utilizarea experiențelor de gestionare a datelor în context.   

Copilot din Bing onorează, de asemenea, solicitările din cadrul dreptului european de a fi uitat, urmând procesul pe care Microsoft l-a dezvoltat și rafinat pentru funcționalitatea de căutare tradițională Bing. Toți utilizatorii pot raporta aici preocupările cu privire la conținutul generat și la răspunsurile lor, iar utilizatorii noștri europeni pot utiliza acest formular pentru a remite solicitări de blocare a rezultatelor căutării în Europa, sub dreptul de a fi uitați.   

Copilot din Bing va onora alegerile de confidențialitate ale utilizatorilor, inclusiv pe cele care au fost făcute anterior în Bing, cum ar fi consimțământul pentru colectarea și utilizarea datelor care este solicitat prin bannere cookie și controale disponibile în Tabloul de bord de confidențialitate Microsoft. Pentru a permite autonomia utilizatorilor și agenția în luarea deciziilor informate, am utilizat procesul nostru intern de revizuire pentru a examina cu atenție modul în care opțiunile sunt prezentate utilizatorilor. 

În plus față de controalele disponibile prin tabloul de bord de confidențialitate Microsoft, care le permit utilizatorilor să vizualizeze, să exporte și să își șteargă istoricul de căutare, inclusiv componentele istoricului chatului, utilizatorii autentificați care au activat caracteristica Istoric chat din produs au capacitatea de a vizualiza, a accesa și a descărca istoricul chatului prin controale în produs. Utilizatorii pot șterge anumite chaturi din istoricul chatului sau pot dezactiva complet funcționalitatea istoricului chatului în orice moment, vizitând pagina Setări Bing. De asemenea, utilizatorii pot alege dacă să permită personalizarea să acceseze o experiență mai personalizată cu răspunsuri personalizate. Utilizatorii pot renunța oricând la personalizare și pot renunța la personalizare, în Setări chat din pagina Setări Bing.  Golirea anumitor chaturi din istoricul chatului împiedică utilizarea acestora pentru personalizare.  
 
Mai multe informații despre istoricul chatului și personalizare sunt furnizate utilizatorilor din Copilot în Întrebări frecvente despre Bing. 

Copilot din Bing a fost construit în funcție de confidențialitate, astfel încât datele cu caracter personal să fie colectate și utilizate numai după cum este necesar și să nu fie păstrate mai mult decât este necesar. Așa cum am menționat mai sus, caracteristica Visual Căutare din Copilot din Bing implementează un mecanism care estompează fețele din imagini în momentul încărcării de către utilizatori, astfel încât imaginile faciale să nu mai fie procesate sau stocate. Mai multe informații despre datele cu caracter personal pe care le colectează Bing, despre modul în care sunt utilizate acestea și despre modul în care sunt stocate și șterse sunt disponibile în Angajamentul de respectare a confidențialității Microsoft, care oferă, de asemenea, informații despre noile caracteristici de chat ale Bing.   

Copilot din Bing are politici de reținere și ștergere a datelor, pentru a se asigura că datele cu caracter personal colectate prin caracteristicile de chat bing sunt păstrate numai atât timp cât este necesar.   

Vom continua să învățăm și să dezvoltăm abordarea noastră în furnizarea Copilot în Bing și, pe măsură ce vom face acest lucru, vom continua să lucrăm în toate disciplinele pentru a alinia inovația inteligenței artificiale cu valorile umane și drepturile fundamentale, inclusiv pentru protejarea utilizatorilor tineri și a confidențialității.   

Copilot cu protecție comercială a datelor 

Copilot cu protecție comercială a datelor, cunoscut anterior ca Bing Chat Enterprise ("BCE"), a fost lansat de Microsoft în versiune preliminară publică gratuită în iulie 2023 ca program de completare gratuit pentru anumiți clienți M365. Copilot cu protecție comercială a datelor este o experiență de căutare web îmbunătățită pentru utilizatorii finali din mediul enterprise. 

La fel ca în cazul Copilot din Bing, atunci când un Copilot cu utilizator final comercial de protecție a datelor introduce o solicitare în interfață, solicitarea, conversația imediată, rezultatele de căutare principale și metaprompt sunt trimise ca intrări către LLM. Modelul generează un răspuns utilizând istoricul prompt și imediat al conversațiilor, pentru a contextualiza solicitarea, metaprompt pentru a alinia răspunsurile la principiile Microsoft privind inteligența artificială și așteptările utilizatorilor, precum și rezultatele căutării la răspunsurile la sol din conținutul existent, de rang înalt de pe web. Acest lucru funcționează la fel ca Și Copilot în Bing, așa cum este descris mai sus în acest document, cu excepția faptului că Copilot cu protecție comercială a datelor se bazează doar pe istoricul conversațiilor imediate (nu istoricul conversațiilor recente) din cauza istoricului de chat stocat care nu este o caracteristică acceptată în prezent. Designer și Căutare vizuale sunt acum disponibile în această versiune. 

La fel ca alte tehnologii de transformare, valorificarea beneficiilor inteligenței artificiale nu este lipsită de riscuri, iar o parte esențială a programului Responsabil pentru inteligența artificială de la Microsoft este proiectată să identifice riscurile potențiale, să măsoare predispoziția acestora și să acumuleze atenuări pentru a le rezolva. Din nou, descrierea de mai sus a eforturilor Microsoft de a identifica, a măsura și a atenua riscurile potențiale pentru Copilot în Bing se aplică, de asemenea, la această versiune, cu câteva clarificări privind atenuările descrise mai jos: 

Lansare pe etape, evaluare continuă. La fel ca în cazul Copilot Bing, pentru Copilot cu protecție comercială a datelor am adoptat, de asemenea, o abordare treptată a lansării. Pe 18 iulie 2023, Copilot cu protecție comercială a datelor a devenit disponibil ca previzualizare gratuită pentru clienții enterprise eligibili cu conturi M365 specifice, pentru a activa opțiunea pentru utilizatorii finali din mediul enterprise. Treizeci (30) de zile după notificarea clienților enterprise eligibili, Copilot cu protecție comercială a datelor a devenit "implicit" pentru aceiași clienți. Copilot cu protecție comercială a datelor, de asemenea, a devenit disponibil pentru anumite conturi M365 facultate de învățământ. Copilot cu protecție comercială a datelor a devenit disponibil în general anumitor clienți din mediul enterprise la 1 decembrie 2023. În viitor, planificăm să extindem accesul la Copilot cu protecție comercială a datelor pentru mai mulți utilizatori Microsoft Entra ID.

Condițiile de utilizare și codul de conduită. Utilizatorii finali ai Copilot cu protecție comercială a datelor trebuie să respecte Condițiile de utilizare ale utilizatorului final. Aceste condiții de utilizare informează utilizatorii finali cu privire la utilizările admise și nepermise și consecințele încălcării termenilor.  

Operațiuni și răspuns rapid. De asemenea, utilizăm Copilot în procesele continue de monitorizare și operaționale ale Bing pentru a ne ocupa de cazurile în care Copilot cu protecție comercială a datelor primește semnale sau primește un raport care indică o posibilă utilizare abuzivă sau încălcare a Condițiilor de utilizare ale utilizatorilor finali

Feedback, monitorizare și supraveghere. Copilot cu protecție comercială a datelor utilizează aceeași instrumentare ca Și Copilot din Bing pentru ca utilizatorii să trimită feedback și să raporteze preocupările, care sunt revizuite de echipele de operațiuni Microsoft. Copilot în procesele operaționale Bing s-au extins, de asemenea, pentru a se potrivi caracteristicilor din Copilot cu experiențe comerciale de protecție a datelor, de exemplu, actualizarea paginii Raportați o preocupare pentru a include noile tipuri de conținut pe care utilizatorii le generează cu ajutorul modelului.  

Pentru a vă asigura că utilizatorii finali au informațiile de care au nevoie atunci când interacționează cu Copilot cu protecția comercială a datelor, în partea de jos a acestui document sunt disponibile documentații despre produs, inclusiv paginile Întrebări frecvente și Aflați mai multe. 

Solicitările și răspunsurile generate de utilizatorii finali din Copilot cu protecție comercială a datelor sunt procesate și stocate în conformitate cu standardele de manipulare a datelor la nivel de întreprindere. Copilot cu oferta comercială de protecție a datelor este disponibilă în prezent doar pentru clienții din mediul enterprise și utilizatorii finali adulți autentificați, astfel că nu anticipăm ca copiii sau tinerii să fie utilizatori finali ai Copilot cu protecție comercială a datelor în acest moment. În plus, Copilot cu protecție comercială a datelor nu oferă publicitate direcționată în mod comportamental utilizatorilor finali. În schimb, toate reclamele afișate sunt doar reclame relevante din punct de vedere contextual.  

Aflați mai multe

Acest document face parte dintr-un efort mai mare al Microsoft de a pune în practică principiile noastre privind inteligența artificială. Pentru a afla mai multe, consultați:

Abordarea Microsoft privind inteligența artificială responsabilă

Microsoft Responsabil ai Standard

Resurse microsoft responsabile pentru inteligența artificială  

Cursuri de învățare Microsoft Azure despre inteligența artificială responsabilă  

Despre acest document  

© Microsoft 2023. Toate drepturile rezervate. Acest document este furnizat "ca atare" și numai în scop informativ. Informațiile și vizualizările exprimate în acest document, inclusiv URL-urile și alte referințe la site-uri Web internet, se pot modifica fără notificare prealabilă. Vă asumați toate riscurile utilizării sale. Iată câteva exemple doar pentru ilustrație și sunt fictive. Nu este intenționată sau dedusă nicio asociere reală.  

Aveți nevoie de ajutor suplimentar?

Doriți mai multe opțiuni?

Explorați avantajele abonamentului, navigați prin cursurile de instruire, aflați cum să vă securizați dispozitivul și multe altele.

Comunitățile vă ajută să adresați întrebări și să răspundeți la întrebări, să oferiți feedback și să primiți feedback de la experți cu cunoștințe bogate.

Au fost utile aceste informații?

Cât de mulțumit sunteți de calitatea limbajului?
Ce v-a afectat experiența?
Apăsând pe Trimitere, feedbackul dvs. va fi utilizat pentru a îmbunătăți produsele și serviciile Microsoft. Administratorul dvs. IT va avea posibilitatea să colecteze aceste date. Angajamentul de respectare a confidențialității.

Vă mulțumim pentru feedback!

×