Ultima actualizare: mai 2025
Ce este o notă de transparență?
Un sistem de inteligență artificială include nu numai tehnologia, ci și persoanele care o vor utiliza, persoanele care vor fi afectate de aceasta și mediul în care este implementată. Notele de transparență de la Microsoft sunt menite să vă ajute să înțelegeți cum funcționează tehnologia AI din spatele Copilot, alegerile pe care le-am făcut care influențează performanța și comportamentul sistemului și importanța gândirii la întregul sistem, astfel încât utilizatorii Copilot să poată prelua controlul asupra propriilor experiențe și să înțeleagă pașii pe care îi facem pentru a oferi un produs sigur și sigur.
Notele de transparență De la Microsoft fac parte dintr-un efort mai amplu al Microsoft de a pune în practică Principiile inteligenței artificiale. Pentru a afla mai multe, consultați Principiile Microsoft privind inteligența artificială.
Noțiuni de bază despre Microsoft Copilot
Introducere
Copilot este o experiență susținută de inteligența artificială, care va ajuta utilizatorii să obțină informațiile pe care le caută, fiind pregătiți să îi ajute pe utilizatori să răspundă la o gamă largă de întrebări, indiferent de situație sau subiect. Copilotul reîmprospătat depășește răspunsul la interogările de regăsire a informațiilor de bază și se concentrează pe generarea de conținut, pentru a oferi suport mai proactiv utilizatorilor atunci când finalizează activități. Înțelegem din ce în ce mai mult modul în care inteligența artificială are potențialul de a-i ajuta pe oameni să învețe, să descopere și să fie mai creativi, ceea ce ne-a solicitat să construim un alt tip de produs. Noua experiență Copilot încearcă să devină un nou tip de experiență care este deschisă și dinamică pentru a răspunde mai bine nevoilor utilizatorului într-un mod mai intuitiv.
La Microsoft, noi luăm în serios angajamentul nostru față de inteligența artificială responsabilă. Experiența copilot actualizată a fost dezvoltată în conformitate cu Principiile Microsoft privind inteligența artificială, cu Standard responsabilă pentru inteligența artificială de la Microsoft și în parteneriat cu experți responsabili în domeniul inteligenței artificiale din cadrul firmei, inclusiv cu Office pentru inteligență artificială responsabilă de la Microsoft, cu echipele noastre de inginerie, cu Microsoft Research și cu Aether. Puteți afla mai multe despre inteligența artificială responsabilă la Microsoft aici.
În acest document, descriem abordarea noastră față de AI responsabil pentru Copilot. Înainte de lansare, am valorificat metodele de ultimă generație de la Microsoft pentru a mapa, a măsura și a gestiona riscurile potențiale și utilizarea necorespunzătoare a sistemului și a-i securiza avantajele pentru utilizatori. Pe măsură ce am continuat să evoluăm Copilot, am continuat, de asemenea, să învățăm și să ne îmbunătățim eforturile responsabile în ceea ce privește inteligența artificială. Acest document va fi actualizat periodic pentru a comunica procesele și metodele noastre în evoluție.
Termeni cheie
Clasificatori Modele de învățare programată care vă ajută să sortați datele în clase sau categorii de informații etichetate. În experiența copilot actualizată, o modalitate prin care utilizăm clasificatorii este să contribuim la detectarea conținutului potențial dăunător transmis de utilizatori sau generat de sistem, pentru a atenua generarea conținutului respectiv și utilizarea abuzivă sau abuzivă a sistemului.
Împământare Pentru anumite conversații în care utilizatorii caută informații, Copilot este împământat în rezultatele căutării web. Acest lucru înseamnă că Copilot centreza răspunsul său pe conținut de rang înalt de pe web și oferă citate hyperlink-uri ca urmare a răspunsurilor text generate. Rețineți că, în acest moment, solicitările utilizatorului în modul voce nu vor declanșa o căutare pe web, prin urmare, niciun răspuns nu va include citate.
Modele lingvistice mari (LLM) Modelele lingvistice mari (LLM) în acest context sunt modele AI care sunt antrenate pentru volume mari de date text pentru a prezice cuvinte în secvențe. Mașinile llM pot efectua o varietate de activități, cum ar fi generarea textului, rezumatul, traducerea, clasificarea și altele.
Atenuare O metodă sau o combinație de metode concepute pentru a reduce riscurile potențiale care pot apărea în urma utilizării caracteristicilor IA în cadrul Copilot.
Modele multimodale (MMM) Modelele multimodale (MMM) sunt modele AI care sunt concepute pentru diferite tipuri de date, cum ar fi text, imagini sau conținut audio. Aceste modele pot efectua o varietate de activități, cum ar fi scrierea de text, descrierea imaginilor, recunoașterea vorbirii și găsirea de informații pentru diferite tipuri de date.
Solicitări Intrări sub formă de text, imagini, și / sau audio care un utilizator trimite la Copilot pentru a interacționa cu caracteristicile AI în Copilot.
Echipă roșie Tehnici utilizate de experți pentru a evalua limitările și vulnerabilitățile unui sistem și pentru a testa eficiența atenuărilor planificate. Testarea echipelor roșii include testeri care adoptă atât persoane benigne, cât și adversare, pentru a identifica riscurile potențiale și sunt diferite de măsurarea sistematică a riscurilor.
Răspunsuri Text, imagini, sau audio care Copilot ieșire ca răspuns la o solicitare sau ca parte a înainte și înapoi cu utilizatorul. Sinonimele pentru "răspuns" includ "finalizare", "generație" și "răspuns".
Modele lingvistice mici (SLM) Modelele lingvistice mici (SLM) în acest context sunt modele AI care sunt antrenate pe volume mai mici și mai concentrate de date, comparativ cu modelele lingvistice mari. În ciuda dimensiunilor mai mici, SLM-urile pot efectua o varietate de activități, cum ar fi generarea textului, rezumarea, traducerea și clasificarea. Deși acestea pot să nu corespundă capacităților extinse ale LLM-urilor, SLM-urile sunt adesea mai eficiente din punct de vedere al resurselor și pot fi foarte eficiente pentru aplicații specifice, direcționate.
Mesaj de sistem Mesajul de sistem (denumit uneori "metaprompt") este un program care servește la ghidul comportamentului sistemului. Anumite părți ale mesajului de sistem ajută la alinierea comportamentului sistemului la Principiile Microsoft privind inteligența artificială și așteptările utilizatorilor. De exemplu, un mesaj de sistem poate include o linie, cum ar fi "nu furnizați informații și nu creați conținut care ar putea provoca daune fizice, emoționale sau financiare".
Capacități
Comportamentul sistemului
Cu Copilot, am dezvoltat o abordare inovatoare pentru a oferi utilizatorilor o experiență mai personalizată în domeniul inteligenței artificiale, pentru o experiență captivantă, care îi poate ajuta pe utilizatori cu o varietate de sarcini. Această abordare inovatoare valorifică o varietate de tehnologii avansate, cum ar fi modele lingvistice și multimodale de la Microsoft, OpenAI și alți dezvoltatori de modele. Am lucrat la implementarea tehnicilor de siguranță pentru modelele de bază ale noii experiențe Copilot înainte de lansarea publică, pentru a dezvolta un set personalizat de capacități și comportamente care oferă o experiență copilot îmbunătățită. În Copilot actualizat, utilizatorii pot trimite prompturi în limbaj natural text sau voce. Răspunsurile sunt prezentate utilizatorilor în mai multe formate diferite, cum ar fi răspunsurile la chat sub formă de text (cu linkuri tradiționale la conținutul web, după cum este necesar) și imaginile (dacă s-a făcut o solicitare de imagine ca parte a solicitării). În cazul în care utilizatorii trimit solicitări în limbaj natural de voce în modul Copilot Voice, ei vor primi răspunsuri audio.
Atunci când un utilizator introduce o solicitare în Copilot, solicitarea, istoricul conversațiilor și mesajul de sistem sunt trimise prin intermediul mai multor clasificatori de intrare, pentru a contribui la filtrarea conținutului dăunător sau inadecvat. Acesta este un prim pas esențial pentru a ajuta la îmbunătățirea performanței modelului și la atenuarea situațiilor în care utilizatorii ar putea încerca să solicite modelul într-un mod care ar putea fi nesigur. După ce solicitarea trece prin classifiers de intrare, acesta este trimis la un SLM pentru a determina dacă solicitarea necesită date de împământare de pe web și care model de limbă ar trebui să răspundă la cerere. Toate modelele generează un răspuns utilizând solicitarea utilizatorului și istoricul conversațiilor recente pentru a contextualiza solicitarea, mesajul de sistem pentru a alinia răspunsurile la Principiile Microsoft privind inteligența artificială și așteptările utilizatorilor și, dacă este cazul, aliniați răspunsurile cu rezultatele căutării la răspunsurile la sol din conținutul existent, de rang înalt de pe web.
Răspunsurile sunt prezentate utilizatorilor în mai multe formate diferite, cum ar fi răspunsurile la chat sub formă de text, linkurile tradiționale la conținutul web, imaginile și răspunsurile audio. Atunci când răspunsurile sunt furnizate sub formă de text și răspunsurile sunt împământate în date de pe web, rezultatul conține citate cu hyperlinkuri listate sub text, astfel încât utilizatorii să poată accesa site-urile web care au fost utilizate pentru a trimite răspunsul și a afla mai multe despre subiect de acolo.
Copilot ajută, de asemenea, utilizatorii să creeze povești noi, poezii, versuri de cântece și imagini. Atunci când Copilot detectează intenția utilizatorului de a genera conținut creativ (cum ar fi o solicitare de utilizator care începe cu "scrie-mi un ..."), sistemul va genera, în majoritatea cazurilor, conținut receptiv la solicitarea utilizatorului. În mod similar, atunci când Copilot detectează intenția utilizatorului de a genera o imagine (cum ar fi un prompt de utilizator care începe cu "trage-mi un ..."), Copilot va genera, în majoritatea cazurilor, o imagine receptiv la solicitarea utilizatorului. Atunci când Copilot detectează intenția utilizatorului de a modifica o imagine încărcată (cum ar fi o solicitare de utilizator care începe cu "adăugați un ..."), Copilot va modifica, în majoritatea cazurilor, o imagine receptivă la solicitarea utilizatorului. Copilot nu poate răspunde cu conținut creativ atunci când solicitarea utilizatorului conține anumiți termeni care ar putea avea ca rezultat conținut problematic.
Utilizatorii cu conturi Microsoft (MSA) au acum și opțiunea de a se abona la Copilot Pro, care oferă o experiență îmbunătățită, inclusiv performanță accelerată, utilizarea capacităților Copilot Voice pentru perioade mai lungi de timp și, în unele cazuri, acces la caracteristici noi, experimentale. Copilot Pro este disponibil în prezent într-un număr limitat de țări și intenționăm să facem Copilot Pro disponibile în curând în mai multe piețe.
Comportament de siguranță intenționat
Scopul nostru pentru Copilot este de a fi util pentru utilizatori. Prin îmbunătățirea celor mai bune practici de la alte produse și servicii microsoft generate de inteligența artificială, dorim să limităm posibilitatea ca Copilot să genereze conținut problematic și să crească probabilitatea unei experiențe de utilizator sigure și pozitive. Deși am luat măsuri pentru a atenua riscurile, modelele generatoare de inteligență artificială, cum ar fi cele din spatele Copilot, sunt probabiliste și pot face greșeli, ceea ce înseamnă că atenuările pot uneori să nu blocheze solicitările utilizatorilor dăunători sau răspunsurile generate de inteligența artificială. Dacă întâmpinați conținut dăunător sau neașteptat în timp ce utilizați Copilot, spuneți-ne prin furnizarea de feedback, astfel încât să putem continua să îmbunătățim experiența.
Cazuri de utilizare
Utilizări intenționate
Copilot este destinat să sprijine utilizatorii în a răspunde la o gamă largă de întrebări, indiferent de situație sau subiect. Utilizatorii pot interacționa cu Copilot folosind intrări de text, imagine și audio, în cazul în care interacțiunile sunt menite să se simtă mai mult ca conversații naturale cu un sistem de ai. În plus, dacă utilizatorii interacționează cu Copilot prin text pentru a căuta informații specifice despre subiecte în care Copilot ar putea necesita mai multe informații pentru a oferi un răspuns mai precis, experiența este destinată să conecteze utilizatorii cu rezultate de căutare relevante, să revizuiască rezultatele de pe web și să rezume informațiile pe care le caută utilizatorii. În Copilot, utilizatorii pot:
-
Rezumați informațiile în timp real atunci când discutați pe chat prin text. Atunci când utilizatorii interacționează cu Copilot prin text, sistemul va efectua căutări web dacă are nevoie de mai multe informații și va utiliza principalele rezultate de căutare web pentru a genera un rezumat al informațiilor de prezentat utilizatorilor. Aceste rezumate includ referințe la paginile web, pentru a-i ajuta pe utilizatori să vadă și să acceseze cu ușurință sursele rezultatelor de căutare care au ajutat rezumatul copilotului. Utilizatorii pot face clic pe aceste linkuri pentru a merge direct la sursă dacă doresc să afle mai multe.
-
Discutați pe chat cu un sistem de inteligență artificială utilizând textul. Utilizatorii pot discuta pe chat cu Copilot prin SMS și pot adresa întrebări suplimentare pentru a găsi informații noi și a primi asistență pe o gamă largă de subiecte.
-
Interfața cu inteligența artificială utilizând vocea. Copilot nu numai că poate primi intrare audio, dar, de asemenea, produce ieșire audio într-una dintre cele patru voci selectate de utilizatori. Capacitățile audio-to-audio permit utilizatorilor să interacționeze cu Copilot într-un mod mai natural și mai fluid.
-
Primiți conținut de știri digerabile. Utilizatorii pot folosi Copilot pentru a primi un rezumat de știri, vreme, precum și alte actualizări bazate pe anumite domenii de subiect prin caracteristica Copilot Zilnic și de a asculta aceste informări într-un format podcast-ca. Această caracteristică va extrage conținut din surse autorizate care au acorduri cu Microsoft.
-
Obțineți ajutor pentru generarea de idei noi. De fiecare data cand utilizatorii interactioneaza cu experienta Copilot vor vedea un set de carti pe care pot da click pentru a incepe sa discute pe chat cu Copilot despre subiecte utile si interesante. Dacă utilizatorii au interacționat cu alte servicii Microsoft pentru consumatori, cardurile vor fi personalizate, în conformitate cu politicile noastre de confidențialitate. În timp, cardurile din Copilot pot fi personalizate pe baza istoricului de chat al unui utilizator. Utilizatorii pot renunța oricând la personalizare din setări și încă explorăm opțiunile de personalizare mai târziu pentru utilizatorii din SEE (Spațiul Economic European) și din Regatul Unit.
-
Generați conținut creativ. Atunci când discută pe chat cu Copilot, utilizatorii pot crea noi poezii, glume, povești, imagini și alte tipuri de conținut, cu ajutorul experienței Copilot. Copilot poate edita, de asemenea, imagini încărcate de către utilizatori, dacă este solicitat.
-
Efectuați activități pe Android.Utilizatorii pot interacționa cu Copilot prin intermediul platformei Android prin voce pentru a efectua anumite activități. Aceste activități sunt setarea cronometrelor și alarmelor, efectuarea apelurilor telefonice, trimiterea de mesaje SMS și comandarea unui Uber. Utilizatorii trebuie să confirme apelul telefonic, mesajul SMS și comanda Uber înainte de finalizarea activităților.
-
Ajutați la cercetare. Copilot poate efectua activități de cercetare prin surfacing resurse detaliate, oferind defalcări detaliate de subiecte, și conectarea la surse pentru a ajuta utilizatorii să depășească răspunsurile rapide pentru interogări mai complexe.
-
Explorați lumea cu Viziune Copilot. Copilot poate vizualiza ecranul sau fluxul de camera mobilă și de a folosi vocea sa pentru a răspunde la întrebări și interacționa cu tine. Copilot poate scana, analiza și oferi instantaneu detalii și sugestii în timp real, pentru a vă ajuta în timp ce lucrați, navigați sau explorați lumea. Viziune Copilot este disponibil pe Edge, Windows, iOS și Android.
Considerații atunci când alegeți alte cazuri de utilizare
Încurajăm utilizatorii să revizuiască tot conținutul înainte de a lua decizii sau de a acționa pe baza răspunsurilor lui Copilot, deoarece inteligența artificială poate face greșeli. În plus, există anumite scenarii pe care vă recomandăm să le evitați sau să le evitați. De exemplu, Microsoft nu permite utilizarea Copilot în legătură cu activități ilegale sau în scopul promovării activităților ilegale.
Limitări
Modelele lingvistice, de imagine și audio care subiactivitatea experienței Copilot pot include date de instruire care pot reflecta prejudecățile societale, care, la rândul lor, pot face copilot să se comporte în moduri care sunt percepute ca nedrepte, nefiabile sau ofensatoare. În ciuda instruirii noastre intensive privind modelul și ajustarea fină a siguranței, precum și a implementării controalelor responsabile pentru inteligența artificială și a sistemelor de siguranță pe care le punem pe datele de instruire, solicitările utilizatorilor și rezultatele modelelor, serviciile bazate pe inteligența artificială sunt neintenționabile și probabiliste. Acest lucru îngreunează blocarea completă a întregului conținut nepotrivit, conducând la riscuri pe care le pot prezenta prejudecățile potențiale, stereotipurile, nefondarea sau alte tipuri de daune care ar putea apărea în conținutul generat de inteligența artificială. Unele dintre modurile în care aceste limitări se pot manifesta în experiența Copilot sunt listate aici.
-
Stereotipuri: Experiența copilotului ar putea consolida stereotipurile. De exemplu, atunci când traduceți "Este asistentă medicală" și "Ea este medic" într-o limbă lipsită de gen, cum ar fi turca, apoi revenind la engleză, Copilot poate genera din greșeală rezultate stereotipice (și incorecte) ale "Este asistentă medicală" și "Este medic". Un alt exemplu este generarea unei imagini bazate pe solicitarea "Copii fără tată", sistemul ar putea genera imagini cu copii dintr-o singură rasă sau etnie, consolidând stereotipurile dăunătoare care ar putea exista în imaginile disponibile publicului, utilizate pentru instruirea modelelor subiacente. Copilot ar putea, de asemenea, să consolideze stereotipurile pe baza conținutului din imaginea de intrare a utilizatorului, bazându-se pe componentele imaginii și făcând presupuneri care ar putea să nu fie adevărate. Am implementat atenuări pentru a reduce riscul de conținut care conține stereotipuri ofensatoare, inclusiv clasificații de intrare și ieșire, modele reglate fin și mesaje de sistem.
-
Suprareprezentare și subreprezentare: Copilot ar putea supra-sau subreprezenta grupuri de persoane, sau chiar să nu le reprezinte deloc, în răspunsurile sale. De exemplu, dacă solicitările de text care conțin cuvântul "gay" sunt detectate ca potențial dăunătoare sau ofensatoare, acest lucru ar putea duce la subreprezentarea generațiilor legitime cu privire la comunitatea LGBTQIA+. În plus față de includerea classifiers intrare și ieșire, modele reglate fin, precum și mesaje de sistem, utilizăm îmbogățirea promptului în Designer ca una dintre mai multe atenuări pentru a reduce riscul de conținut care supra-sau sub-reprezintă grupuri de persoane.
-
Conținut inadecvat sau ofensator: experiența Copilot poate produce alte tipuri de conținut inadecvat sau ofensator. Printre exemple se numără capacitatea de a genera conținut într-o singură modalitate (de exemplu, audio) nepotrivită în contextul solicitării sale sau în comparație cu același rezultat, într-o altă modalitate (de exemplu, text). Alte exemple includ imagini generate de inteligența artificială care ar putea conține artefacte dăunătoare, cum ar fi simboluri de ură, conținut care se referă la subiecte contestate, controversate sau polarizare ideologice și conținut taxat sexual care evazează filtrele de conținut legate de sex. Am aplicat atenuări pentru a reduce riscul generațiilor care conțin conținut inadecvat sau ofensator, cum ar fi clasificatorii de intrare și ieșire, modelele reglate fin și mesajele de sistem.
-
Fiabilitatea informației: În timp ce Copilot își propune să răspundă cu surse de încredere acolo unde este necesar, inteligența artificială poate face greșeli. Aceasta ar putea genera conținut nesensical sau ar putea fabrica conținut care ar putea părea rezonabil, dar este inexact din punct de vedere faptic. Chiar și atunci când desenați răspunsuri de la date web de înaltă autoritate, răspunsurile pot să inducă în eroare acel conținut într-un mod care poate să nu fie complet precis sau fiabil. Reamintim utilizatorilor prin intermediul interfeței de utilizator și în documentația de acest gen că Copilot poate face greșeli. Vom continua, de asemenea, să educe utilizatorii cu privire la limitele de AI, cum ar fi încurajarea lor de a verifica faptelor de două ori înainte de a lua decizii sau care acționează pe baza răspunsurilor Copilot lui. Atunci când utilizatorii interacționează cu Copilot prin text, acesta va încerca să se solițeze în date web de înaltă calitate pentru a reduce riscul ca generațiile să nu fie împământate.
-
Performanță multilingvă: pot exista variații ale performanței în mai multe limbi, limba engleză având performanțe optime în momentul lansării copilotului actualizat. Îmbunătățirea performanței în mai multe limbi este o zonă esențială de investiții, iar modelele recente au condus la o performanță îmbunătățită.
-
Limitările audio: Modelele audio pot introduce alte limitări. Pe larg, calitatea acustică a intrărilor vocale, zgomotul non-vorbire, vocabularul, accentele și erorile de inserare pot afecta, de asemenea, dacă Copilot procesează și răspunde la intrarea audio a unui utilizator într-un mod satisfăcător. Mai mult decât atât, deoarece solicitările utilizatorului atunci când utilizați Copilot Voice nu vor declanșa căutări web, este posibil ca Copilot să nu poată răspunde la evenimentele curente în modul voce.
-
Dependența de conectivitatea la internet: Experiența copilot actualizată se bazează pe conectivitatea la internet pentru a funcționa. Întreruperile conectivității pot avea un impact asupra disponibilității și performanței serviciului.
Performanța sistemului
În multe sisteme de inteligență artificială, performanța este adesea definită în relație cu acuratețea (de exemplu, cât de des oferă sistemul AI o predicție sau o ieșire corectă). Cu Copilot, ne concentrăm pe Copilot ca un asistent susținut de inteligența artificială, care reflectă preferințele utilizatorului. Prin urmare, doi utilizatori diferiți ar putea analiza același rezultat și ar avea opinii diferite cu privire la cât de util sau de relevant este acest lucru pentru situația unică și așteptările lor, ceea ce înseamnă că performanțele pentru aceste sisteme trebuie definite mai flexibil. Considerăm pe larg performanța pentru a însemna că aplicația funcționează așa cum se așteaptă utilizatorii.
Cele mai bune practici pentru îmbunătățirea performanței sistemului
Interacționați cu interfața utilizând un limbaj natural, de conversație. Interacțiunea cu Copilot într-un mod confortabil pentru utilizator este esențială pentru a obține rezultate mai bune prin experiență. Similar cu adoptarea tehnicilor de a ajuta oamenii să comunice în mod eficient în viața lor de zi cu zi, interacționează cu Copilot ca un asistent ai alimentat fie prin text sau de vorbire, care este familiar pentru utilizator poate ajuta la provoca rezultate mai bune.
Experiența utilizatorului și adoptarea. Utilizarea eficientă a Copilot necesită ca utilizatorii să-și înțeleagă capacitățile și limitările. Ar putea exista o curbă de învățare, și utilizatorii ar putea dori să facă referire la diferite resurse Copilot (de exemplu, acest document și întrebări frecvente Copilot noastre) pentru a interacționa eficient cu și de a beneficia de serviciu.
Maparea, măsurarea și gestionarea riscurilor
La fel ca alte tehnologii de transformare, valorificarea beneficiilor inteligenței artificiale nu este lipsită de riscuri, iar o parte esențială a programului Responsabil pentru inteligența artificială de la Microsoft este proiectată să identifice și să mapeze riscurile potențiale, să măsoare aceste riscuri și să le gestioneze prin construirea atenuărilor și îmbunătățirea continuă a Copilot în timp. În secțiunile de mai jos descriem abordarea noastră iterativă de a mapa, măsura și gestiona riscurile potențiale.
Hartă: planificarea atentă și testarea adversarală înainte de implementare, cum ar fi echiparea roșie, ne ajută să cartografiem riscurile potențiale. Modelele subiacente care alimentează experiența Copilot au trecut prin testarea echipelor roșii din partea testerilor care reprezintă perspective otice în domenii relevante. Această testare a fost concepută pentru a evalua modul în care cea mai recentă tehnologie ar funcționa atât cu, cât și fără garanții suplimentare aplicate acesteia. Intenția acestor exerciții la nivel de model este de a produce răspunsuri dăunătoare, căi potențiale de suprafață pentru utilizare necorespunzătoare și de a identifica capacitățile și limitările.
Înainte de a face experiența Copilot disponibilă public într-o versiune preliminară limitată, am realizat, de asemenea, o echipă roșie la nivel de aplicație pentru a evalua Copilot în ceea ce privește deficiențele și vulnerabilitățile. Acest proces ne-a ajutat să înțelegem mai bine cum a putut fi utilizat sistemul de o largă varietate de utilizatori și ne-a ajutat să ne îmbunătățim atenuările.
Măsură: În plus față de evaluarea Copilot în raport cu evaluările noastre existente privind siguranța, utilizarea echipei roșii descrise mai sus ne-a ajutat să dezvoltăm evaluări și măsurători responsabile ale inteligenței artificiale corespunzătoare riscurilor potențiale identificate, cum ar fi jailbreaks, conținut dăunător și conținut nefondat.
Am colectat date de conversație ce vizau aceste riscuri, utilizând o combinație de participanți umani și un canal automatizat de generare a conversațiilor. Fiecare evaluare este apoi marcată fie de un fond comun de adnotări umane antrenate, fie de un canal automat de adnotare. De fiecare dată când se modifică produsul, sunt actualizate atenuările existente sau sunt propuse noi atenuări, actualizăm canalele noastre de evaluare pentru a evalua atât performanța produselor, cât și măsurătorile responsabile pentru inteligența artificială. Aceste canale de context de evaluare automată sunt o combinație de conversații colectate cu evaluatorii umani și conversații sintetice generate cu LLM-uri, care solicită testarea politicilor într-o manieră adversarială. Fiecare dintre aceste evaluări de siguranță este marcată automat cu llms. Pentru evaluările nou dezvoltate, fiecare evaluare este inițial realizată de labelerii umani care citesc conținutul textului sau ascultă conținutul audio, apoi sunt convertiți în evaluări automate bazate pe LLM.
Comportamentul intenționat al modelelor noastre în combinație cu canalele noastre de evaluare – atât umane, cât și automatizate – ne permit să efectuăm rapid măsurători pentru riscuri potențiale la scară. Pe măsură ce identificăm probleme noi în timp, continuăm să extindem seturile de măsurători pentru a evalua riscurile suplimentare.
Gestionare: Pe măsură ce am identificat riscuri potențiale și utilizări abuzive prin teaming roșu și le-am măsurat cu abordările descrise mai sus, am dezvoltat atenuări suplimentare specifice experienței Copilot. Mai jos descriem unele dintre aceste atenuări. Vom continua monitorizarea experienței Copilot pentru a îmbunătăți performanța produselor și abordarea noastră de atenuare a riscurilor.
-
Planuri de lansare pe etape și evaluare continuă. Ne angajăm să învățăm și să îmbunătățim permanent abordarea inteligenței artificiale responsabile, pe măsură ce tehnologiile noastre și comportamentul utilizatorilor evoluează. Strategia noastră de lansare incrementală a fost o parte esențială a modului în care ne mutăm tehnologia în siguranță din laborator în lume și ne angajăm la un proces intenționat, atent, pentru a securiza avantajele experienței Copilot. Facem modificări regulat la Copilot pentru a îmbunătăți performanța produselor și atenuările existente și pentru a implementa noi atenuări ca răspuns la învățarea noastră.
-
Utilizați clasificările și mesajul de sistem pentru a reduce riscurile potențiale sau utilizarea necorespunzătoare. Ca răspuns la solicitările utilizatorilor, mașinile LLM pot produce conținut problematic. Am discutat despre tipurile de conținut pe care încercăm să le limităm în secțiunile Comportament și limitări de sistem de mai sus. Classifiers and the system message are two examples of mitigations that have been implemented in Copilot to help reduce the risk of these types content. Clasificatorii clasifică textul pentru a semnaliza conținutul potențial dăunător în solicitările utilizatorilor sau în răspunsurile generate. De asemenea, utilizăm cele mai bune practici existente pentru a valorifica mesajul de sistem, care implică oferirea de instrucțiuni modelului pentru a-i alinia comportamentul cu principiile Microsoft privind inteligența artificială și așteptările utilizatorilor.
-
Consimțământul pentru încărcările de imagini Copilot. Prima dată când un utilizator încarcă o imagine cu fețe în Copilot, i se va cere să-și dea consimțământul pentru încărcarea datelor biometrice în Copilot. Dacă un utilizator nu se înscrie, imaginea nu va fi trimisă la Copilot. Toate imaginile, indiferent dacă conțin sau nu fețe, sunt șterse în termen de 30 de zile de la încheierea conversației.
-
Dezvăluirea inteligenței artificiale. Copilot este, de asemenea, conceput pentru a informa oamenii că acestea sunt interacționează cu un sistem de AI. Pe măsură ce utilizatorii interacționează cu Copilot, oferim diverse puncte tactile concepute pentru a-i ajuta să înțeleagă capacitățile sistemului, să le spunem că Copilot este alimentat de inteligența artificială și comunică limitările. Experiența este proiectată în acest mod pentru a ajuta utilizatorii să profite la maximum de Copilot și a minimiza riscul de excesul de milă. De asemenea, dezvăluirile îi ajută pe utilizatori să înțeleagă mai bine Copilot și interacțiunile lor cu aceasta.
-
Proveniența media. Când Copilot generează o imagine, am activat o caracteristică "Acreditări de conținut", care utilizează metode criptografice pentru a marca sursa, sau "proveniența", a tuturor imaginilor generate de AI create utilizând Copilot. Această tehnologie utilizează standarde stabilite de Coaliția pentru Conținut și Autenticitate (C2PA) pentru a adăuga un nivel suplimentar de încredere și transparență pentru imaginile generate de AI.
-
Detectarea automată a conținutului. Atunci când utilizatorii încarcă imagini ca parte a solicitării lor de chat, Copilot implementează instrumente pentru detectarea imaginilor de exploatare sexuală și abuz în copii (CSEAI). Microsoft raportează toate CSEAI aparente centrului național pentru copii dispăruți și exploatați (NCMEC), conform legislației SUA. Atunci când utilizatorii încarcă fișiere pentru analiză sau procesare, Copilot implementează scanarea automată pentru a detecta conținutul care ar putea duce la riscuri sau utilizare necorespunzătoare, cum ar fi text care ar putea fi legat de activități ilegale sau cod rău intenționat.
-
Condițiile de utilizare și codul de conduită. Utilizatorii ar trebui să respecte Condițiile de utilizare și codul de conduită aplicabile ale Copilot, Contractul de furnizare a serviciilor Microsoft, precum și Angajamentul de respectare a confidențialității Microsoft, care, printre altele, îi informează cu privire la utilizările admise și nepermise și la consecințele încălcării termenilor. Condițiile de utilizare oferă, de asemenea, divulgări suplimentare pentru utilizatori și servește drept referință pentru ca utilizatorii să învețe despre Copilot. Utilizatorii care comit încălcări grave sau repetate pot fi suspendați temporar sau permanent din serviciu.
-
Feedback, monitorizare și supraveghere. Experiența Copilot se bazează pe instrumente existente, care le permit utilizatorilor să trimită feedback, care sunt revizuite de echipele de operațiuni Microsoft. În plus, abordarea noastră privind maparea, măsurarea și gestionarea riscurilor va continua să evolueze pe măsură ce aflăm mai multe și facem deja îmbunătățiri pe baza feedbackului colectat în timpul perioadelor de previzualizare.
Aflați mai multe despre inteligența artificială responsabilă
Raport de transparență responsabilă pentru inteligența artificială Microsoft
Principiile Microsoft privind inteligența artificială
Resurse MICROSOFT responsabile pentru inteligența artificială
Cursuri de învățare Microsoft Azure despre inteligența artificială responsabilă
Aflați mai multe despre Microsoft Copilot
Despre acest document
© 2024 Microsoft Corporation. Toate drepturile rezervate. Acest document este furnizat "ca atare" și numai în scop informativ. Informațiile și vizualizările exprimate în acest document, inclusiv URL-urile și alte referințe la site-uri Web internet, se pot modifica fără notificare prealabilă. Riscul folosirii acestuia vă revine. Iată câteva exemple doar pentru ilustrație și sunt fictive. Nu este intenționată sau dedusă nicio asociere reală.
Acest document nu este destinat să fie, și nu ar trebui să fie interpretată ca oferind, consiliere juridică. Jurisdicția în care operați poate avea diverse cerințe legale sau de reglementare care se aplică la sistemul dvs. de inteligență artificială. Consultați un specialist juridic dacă nu sunteți sigur de legile sau reglementările care se pot aplica sistemului dvs., mai ales dacă credeți că acestea ar putea afecta aceste recomandări. Rețineți că nu toate aceste recomandări și resurse vor fi potrivite pentru fiecare scenariu și, în schimb, aceste recomandări și resurse pot fi insuficiente pentru unele scenarii.
Publicat: 10/01/2024
Ultima actualizare: 01.10.2024