Sist oppdatert: september 2025
Hva er et gjennomsiktighetsnotat?
Et AI-system inkluderer ikke bare teknologien, men også personene som skal bruke den, personene som vil bli påvirket av den, og miljøet den distribueres i. Microsofts transparency Notes er ment å hjelpe deg med å forstå hvordan AI-teknologien bak Copilot fungerer, valgene vi har gjort som påvirker systemets ytelse og atferd, og viktigheten av å tenke på hele systemet, slik at brukere av Copilot kan ta kontroll over sine egne erfaringer og forstå trinnene vi tar for å gi et trygt og sikkert produkt.
Microsofts transparency Notes er en del av en bredere innsats hos Microsoft for å sette ai-prinsippene våre ut i praksis. Hvis du vil finne ut mer, kan du se Microsoft AI-prinsippene.
Det grunnleggende om Microsoft Copilot
Innføring
Copilot er en AI-drevet opplevelse som vil bidra til å gi brukerne den informasjonen de søker, samtidig som de er forberedt på å støtte brukere i å svare på en rekke spørsmål uavhengig av situasjonen eller emnet. Den oppdaterte Copilot går utover å svare på grunnleggende informasjonshentingsspørringer og fokuserer på å generere innhold for å tilby mer proaktiv støtte til brukere når de fullfører oppgaver. Vi har en økende forståelse av hvordan kunstig intelligens har potensial til å hjelpe folk med å lære, oppdage og være mer kreative, noe som har krevd at vi bygger en annen type produkt. Den nye Copilot-opplevelsen søker å bli en ny type opplevelse som er åpen og dynamisk for å bedre møte brukerbehov på en måte som er mer intuitiv.
Hos Microsoft tar vi ansvarlig KI på alvor. Den oppdaterte Copilot-opplevelsen er utviklet i tråd med Microsofts AI-prinsipper, Microsofts ansvarlige AI-Standard og i samarbeid med ansvarlige AI-eksperter på tvers av selskapet, inkludert Microsofts Office of Responsible AI, våre tekniske team, Microsoft Research og Aether. Du kan finne ut mer om ansvarlig kunstig intelligens hos Microsoft her.
I dette dokumentet beskriver vi vår tilnærming til ansvarlig kunstig intelligens for Copilot. I forkant av utgivelsen benyttet vi Microsofts toppmoderne metoder for å kartlegge, måle og håndtere potensielle risikoer og misbruk av systemet, og for å sikre fordelene for brukerne. Etter hvert som vi har fortsatt å utvikle Copilot, har vi også fortsatt å lære og forbedre vår ansvarlige AI-innsats. Dette dokumentet oppdateres regelmessig for å kommunisere prosessene og metodene vi utvikler.
Nøkkeltermer
Klassifiserere Maskinlæringsmodeller som bidrar til å sortere data i merkede klasser eller kategorier med informasjon. I den oppdaterte Copilot-opplevelsen er én måte vi bruker klassifiere på, å bidra til å oppdage potensielt skadelig innhold som sendes inn av brukere eller genereres av systemet for å redusere generering av innholdet og misbruket eller misbruket av systemet.
Jording For enkelte samtaler der brukere søker informasjon, er Copilot jordet i nettsøkeresultater. Dette betyr at Copilot fokuserer sitt svar på høytstående innhold fra nettet og gir hyperkoblede sitater etter genererte tekstsvar. Vær oppmerksom på at på dette tidspunktet vil ikke brukermeldinger i talemodus utløse et nettsøk, derfor vil ingen svar inkludere sitater.
Store språkmodeller (LLM-er) Store språkmodeller (LLM-er) i denne konteksten er AI-modeller som er opplært på store mengder tekstdata for å forutsi ord i sekvenser. LlMs kan utføre en rekke oppgaver, for eksempel tekstgenerering, oppsummering, oversettelse, klassifisering og mer.
Klimatiltak En metode eller kombinasjon av metoder som er utformet for å redusere potensielle risikoer som kan oppstå ved bruk av AI-funksjonene i Copilot.
Flersperrende modeller (MMM-er) Flersperrende modeller (MMM-er) er AI-modeller som er opplært på ulike typer data, for eksempel tekst, bilder eller lyd. Disse modellene kan utføre en rekke oppgaver, for eksempel å skrive tekst, beskrive bilder, gjenkjenne tale og finne informasjon på tvers av ulike typer data.
Spørsmål Inndata i form av tekst, bilder og/eller lyd som en bruker sender til Copilot for å samhandle med AI-funksjonene i Copilot.
Rød teaming Teknikker som brukes av eksperter til å vurdere begrensninger og sårbarheter i et system og til å teste effektiviteten av planlagte begrensninger. Rød teamtesting inkluderer testere som tar i bruk både godartede og adversariale personligheter for å identifisere potensielle risikoer og er forskjellig fra systematisk måling av risiko.
Svar Tekst, bilder eller lyd som Copilot sender som svar på en ledetekst eller som en del av frem og tilbake med brukeren. Synonymer for «svar» inkluderer «fullføring», «generasjon og «svar».
Små språkmodeller (SLM-er) Små språkmodeller (SLM-er) i denne konteksten er AI-modeller som er opplært på mindre, mer fokuserte mengder data sammenlignet med store språkmodeller. Til tross for mindre størrelse kan SLM-er utføre en rekke oppgaver, for eksempel tekstgenerering, oppsummering, oversettelse og klassifisering. Selv om de kanskje ikke samsvarer med de omfattende egenskapene til LLM-er, er SLM-er ofte mer ressurseffektive og kan være svært effektive for bestemte, målrettede programmer.
Systemmelding Systemmeldingen (kalles noen ganger metaprompt) er et program som hjelper deg med å styre systemets virkemåte. Deler av systemmeldingen bidrar til å justere systematferden med Microsoft AI-prinsipper og brukerforventninger. En systemmelding kan for eksempel inneholde en linje som «ikke oppgi informasjon eller opprett innhold som kan forårsake fysisk, følelsesmessig eller økonomisk skade».
Muligheter
Systemvirkemåte
Med Copilot har vi utviklet en nyskapende tilnærming for å gi brukerne en mer tilpasset opplevelse for kunstig intelligens for en engasjerende opplevelse som kan hjelpe brukere med en rekke oppgaver. Denne innovative tilnærmingen benytter en rekke avanserte teknologier, for eksempel språk- og flermodale modeller fra Microsoft, OpenAI og andre modellutviklere. Vi jobbet med implementeringen av sikkerhetsteknikker for modellene som ligger til grunn for den nye Copilot-opplevelsen før offentlig utgivelse for å utvikle et tilpasset sett med evner og atferd som gir en forbedret Copilot-opplevelse. I den oppdaterte Copilot kan brukere sende meldinger i naturlig språktekst eller tale. Svarene presenteres for brukere i flere forskjellige formater, for eksempel chattesvar i tekstform (med tradisjonelle koblinger til nettinnhold etter behov) og bilder (hvis en bildeforespørsel ble gjort som en del av ledeteksten). Hvis brukere sender ledetekster med naturlig språk i Copilot Voice-modus, mottar de lydsvar.
Når en bruker skriver inn en melding i Copilot, sendes ledeteksten, samtaleloggen og systemmeldingen gjennom flere inndataklassifierer for å filtrere ut skadelig eller upassende innhold. Dette er et viktig første trinn for å bidra til å forbedre modellytelsen og redusere situasjoner der brukere kan forsøke å spørre modellen på en måte som kan være usikker. Når ledeteksten passerer gjennom inndataklassifikatorene, sendes den til en SLM for å avgjøre om forespørselen krever jording av data fra nettet, og hvilken språkmodell som skal svare på forespørselen. Alle modeller genererer et svar ved hjelp av brukerens ledetekst og nylige samtalelogg for å kontekstualisere forespørselen, systemmeldingen for å justere svar etter Microsoft AI-prinsipper og brukerforventninger, og hvis det er aktuelt, justerer du svarene med søkeresultatene til bakkesvar i eksisterende, høytstående innhold fra nettet.
Svarene presenteres for brukere i flere ulike formater, for eksempel chattesvar i tekstform, tradisjonelle koblinger til nettinnhold, bilder og lydsvar. Når svar gis i form av tekst – og svarene er jordet i data fra nettet – inneholder utdataene hyperkoblingssitater som er oppført under teksten, slik at brukere kan få tilgang til nettstedet(e) som ble brukt til å jorde svaret og lære mer om emnet derfra. Copilot kan også kjøre kode for å fullføre komplekse beregninger og generere grafer. Copilot kan lagre bestemte fakta brukere ber om å huske, slik at det kan generere mer relevante svar og forslag basert på den konteksten. Copilot kan også slette lagrede fakta når brukere ber om å glemme dem eksplisitt.
Copilot hjelper også brukere med å lage nye historier, dikt, sangtekster og bilder. Når Copilot oppdager brukerens hensikt å generere kreativt innhold (for eksempel en brukerledetekst som begynner med «skriv meg en ...»), vil systemet i de fleste tilfeller generere innhold som svarer på brukerens ledetekst. På samme måte, når Copilot oppdager brukerens hensikt å generere et bilde (for eksempel en brukerledetekst som begynner med "tegn meg en ..."), vil Copilot i de fleste tilfeller generere et bilde som svarer på brukerens ledetekst. Når Copilot oppdager brukerens hensikt å endre et opplastet bilde (for eksempel en brukerledetekst som begynner med «legg til en ...»), vil Copilot i de fleste tilfeller endre et bilde som svarer på brukerens ledetekst. Copilot svarer kanskje ikke med kreativt innhold når brukerledeteksten inneholder bestemte termer som kan føre til problematisk innhold.
Brukere med Microsoft-kontoer (MSA) har nå også mulighet til å abonnere på Copilot Pro, noe som gir en forbedret opplevelse, inkludert akselerert ytelse, bruk av Copilot Voice-funksjoner i lengre perioder, og i noen tilfeller tilgang til nye, eksperimentelle funksjoner. Copilot Pro er for øyeblikket tilgjengelig i et begrenset antall land, og vi planlegger å gjøre Copilot Pro tilgjengelig i flere markeder snart.
Tiltenkt sikkerhetsvirkemåte
Vårt mål for Copilot er å være nyttig for brukerne. Ved å dra nytte av anbefalte fremgangsmåter fra andre Microsoft generative AI-produkter og -tjenester, tar vi sikte på å begrense Copilot fra å generere problematisk innhold og øke sannsynligheten for en sikker og positiv brukeropplevelse. Selv om vi har tatt skritt for å redusere risikoen, er generative AI-modeller som de bak Copilot probabilistiske og kan gjøre feil, noe som betyr at begrensninger av og til kan mislykkes i å blokkere skadelige brukermeldinger eller AI-genererte svar. Hvis du støter på skadelig eller uventet innhold mens du bruker Copilot, kan du gi oss beskjed ved å gi tilbakemelding, slik at vi kan fortsette å forbedre opplevelsen.
Brukstilfeller
Tiltenkt bruk
Copilot er ment å støtte brukere i å svare på en rekke spørsmål uavhengig av situasjonen eller emnet. Brukere kan samhandle med Copilot ved hjelp av tekst-, bilde- og lydinndata der samhandlinger er ment å føles mer som naturlige samtaler med et AI-system. I tillegg, hvis brukerne samhandler med Copilot via tekst for å oppsøke spesifikk informasjon om emner der Copilot kan kreve mer informasjon for å produsere et mer nøyaktig svar, er opplevelsen ment å koble brukere med relevante søkeresultater, gjennomgå resultater fra hele nettet og oppsummere informasjon brukere leter etter. I Copilot kan brukere:
-
Oppsummer informasjon i sanntid når du chatter via tekst. Når brukere samhandler med Copilot via tekst, utfører systemet nettsøk hvis det trenger mer informasjon, og vil bruke de øverste søkeresultatene på nettet til å generere et sammendrag av informasjonen som skal presenteres for brukerne. Disse sammendragene inkluderer sitater til nettsider for å hjelpe brukere med å se og enkelt få tilgang til kildene for søkeresultater som bidro til å jorde Copilots sammendrag. Brukere kan klikke på disse koblingene for å gå direkte til kilden hvis de vil lære mer.
-
Chat med et AI-system ved hjelp av tekst. Brukere kan chatte med Copilot via tekst og stille oppfølgingsspørsmål for å finne ny informasjon og få støtte på tvers av en rekke emner.
-
Grensesnitt med kunstig intelligens ved hjelp av tale og utseende. Copilot kan ikke bare motta lydinndata, men også produsere lydutdata i én av fire stemmer valgt av brukere, og presentere et visuelt utseende for å berike samhandling. Lyd-til-lyd- og utseendefunksjoner gjør det mulig for brukere å samhandle med Copilot på en mer naturlig og flytende måte.
-
Motta fordøyelig nyhetsinnhold. Brukere kan bruke Copilot til å motta et sammendrag av nyheter, vær og andre oppdateringer basert på utvalgte emneområder via Copilot Daily-funksjonen og lytte til disse orienteringene i et podcastlignende format. Denne funksjonen henter innhold fra autoriserte kilder som har avtaler med Microsoft.
-
Få hjelp til å generere nye ideer. Hver gang brukerne samhandler med Copilot-opplevelsen, vil de se et sett med kort som de kan klikke for å begynne å chatte med Copilot om nyttige og interessante emner. Hvis brukere har samhandlet med andre Microsoft-forbrukertjenester, tilpasses kortene i tråd med personvernerklæringene våre. Over tid kan kort i Copilot tilpasses basert på en brukers chattelogg. Brukere kan velge bort tilpassing når som helst i innstillingene.
-
Generer kreativt innhold. Når de chatter med Copilot, kan brukerne lage nye dikt, vitser, historier, bilder og annet innhold med hjelp fra Copilot-opplevelsen. Copilot kan også redigere bilder som lastes opp av brukere hvis de blir bedt om det.
-
Utføre oppgaver på Android.Brukere kan samhandle med Copilot via Android-plattformen via tale for å utføre bestemte oppgaver. Disse oppgavene setter tidtakere og alarmer, ringer, sender SMS-meldinger og bestiller en Uber. Brukere må bekrefte telefonsamtalen, SMS-meldingen og Uber-bestillingen før oppgavene er fullført.
-
Hjelp med forskning. Copilot kan utføre forskningsoppgaver ved å vise dyptgående ressurser, tilby detaljerte nedbrytinger av emner og koble til kilder for å hjelpe brukerne med å gå utover raske svar for mer komplekse spørringer. Copilot kan proaktivt generere tilpassede forskningsforslag for brukere basert på ting som tidligere forskningsspørringer og Copilot-minne. Brukere kan velge bort tilpassing eller varsler når som helst i innstillingene.
-
Utforsk verden med Copilot Vision. Copilot kan vise skjerm- eller mobilkamerafeeden og bruke stemmen til å svare på spørsmål og samhandle med deg. Copilot kan øyeblikkelig skanne, analysere og gi innsikt og forslag i sanntid for å hjelpe deg mens du arbeider, blar gjennom eller utforsker verden. Copilot Vision er tilgjengelig på Edge, Windows, iOS og Android.
Viktige faktorer når du velger andre brukstilfeller
Vi oppfordrer brukere til å se gjennom alt innhold før de tar beslutninger eller handler basert på Copilots svar, da KUNSTIG INTELLIGENS kan gjøre feil. I tillegg finnes det visse scenarioer som vi anbefaler å unngå, eller som strider mot vilkårene for bruk. Microsoft tillater for eksempel ikke at Copilot brukes i forbindelse med ulovlige aktiviteter eller til noe formål som skal fremme ulovlig aktivitet.
Begrensninger
Språk-, bilde- og lydmodellene som underly Copilot-opplevelsen kan inkludere opplæringsdata som kan gjenspeile samfunnsmessige skjevheter, noe som igjen potensielt kan føre til at Copilot oppfører seg på måter som oppfattes som urettferdige, upålitelige eller støtende. Til tross for vår intensive modellopplæring og sikkerhets finjustering, samt implementeringen av de ansvarlige AI-kontrollene og sikkerhetssystemene som vi plasserer på opplæringsdata, brukermeldinger og modellutdata, er AI-drevne tjenester feilbare og probabilistiske. Dette gjør det utfordrende å fullstendig blokkere alt upassende innhold, noe som fører til risiko for at potensielle skjevheter, stereotypier, ujordethet eller andre typer skader som kan vises i AI-generert innhold. Noen av måtene disse begrensningene kan manifestere seg i Copilot-opplevelsen er oppført her.
-
Stereotyping: Copilot-opplevelsen kan potensielt forsterke stereotypier. For eksempel, når du oversetter "Han er sykepleier" og "Hun er lege" til et kjønnsløst språk som tyrkisk og deretter tilbake til engelsk, kan Copilot utilsiktet gi de stereotypiske (og uriktige) resultatene av "Hun er sykepleier" og "Han er lege." Et annet eksempel er når du genererer et bilde basert på spørsmålet "Farløse barn", systemet kan generere bilder av barn fra bare én rase eller etnisitet, forsterke skadelige stereotypier som kan eksistere i offentlig tilgjengelige bilder som brukes til å trene de underliggende modellene. Copilot kan også forsterke stereotypier basert på innholdet i brukerens inndatabilde ved å stole på komponenter i bildet og gjøre antagelser som kanskje ikke er sanne. Vi har implementert tiltak for å redusere risikoen for innhold som inneholder støtende stereotypier, inkludert inndata- og utdataklassifierere, finjusterte modeller og systemmeldinger.
-
Overrepresentasjon og underrepresentasjon: Copilot kan potensielt over- eller underrepresentasjonsgrupper av mennesker, eller til og med ikke representere dem i det hele tatt, i sine svar. Hvis for eksempel tekstmeldinger som inneholder ordet "homofile" oppdages som potensielt skadelige eller støtende, kan dette føre til underrepresentasjon av legitime generasjoner om LGBTQIA + samfunnet. I tillegg til å inkludere inndata- og utdataklassifierere, finjusterte modeller og systemmeldinger, bruker vi rask berikelse i Designer som en av flere begrensninger for å redusere risikoen for innhold som over- eller underredigerer grupper av mennesker.
-
Upassende eller støtende innhold: Copilot-opplevelsen kan potensielt produsere andre typer upassende eller støtende innhold. Eksempler inkluderer muligheten til å generere innhold i én modalitet (for eksempel lyd) som er upassende i konteksten til ledeteksten, eller sammenlignet med de samme utdataene i en annen modalitet (for eksempel tekst). Andre eksempler inkluderer AI-genererte bilder som potensielt inneholder skadelige artefakter som hatsymboler, innhold som er relatert til omstridte, kontroversielle eller ideologisk polariserende emner, og seksuelt ladet innhold som unngår filtre for seksuelt relatert innhold. Vi har satt i gang tiltak for å redusere risikoen for generasjoner som inneholder upassende eller støtende innhold, for eksempel inndata- og utdataklassifierer, finjusterte modeller og systemmeldinger.
-
Informasjonspålitelighet: Selv om Copilot har som mål å svare med pålitelige kilder der det er nødvendig, kan KUNSTIG intelligens gjøre feil. Det kan potensielt generere nonsensisk innhold eller dikte opp innhold som kan høres rimelig ut, men som faktisk er unøyaktig. Selv når du tegner svar fra nettdata med høy myndighet, kan svarene feilrepresentere innholdet på en måte som kanskje ikke er helt nøyaktig eller pålitelig. Vi minner brukerne gjennom brukergrensesnittet og i dokumentasjon som dette om at Copilot kan gjøre feil. Vi fortsetter også å lære brukerne om begrensningene i KUNSTIG INTELLIGENS, for eksempel å oppmuntre dem til å dobbeltsjekke fakta før de tar beslutninger eller handler basert på Copilots svar. Når brukere samhandler med Copilot via tekst, vil de forsøke å jorde seg selv i nettdata av høy kvalitet for å redusere risikoen for at generasjoner ikke erjordet.
-
Flerspråklig ytelse: Det kan være variasjoner i ytelse på tvers av språk, der engelsk fungerer best på tidspunktet for utgivelsen av den oppdaterte Copilot. Forbedring av ytelsen på tvers av språk er et viktig investeringsområde, og nyere modeller har ført til bedre ytelse.
-
Lydbegrensninger: Lydmodeller kan introdusere andre begrensninger. Generelt sett kan den akustiske kvaliteten på taleinndata, ikke-talestøy, vokabular, aksenter og innsettingsfeil også påvirke om Copilot behandler og reagerer på en brukers lydinndata på en tilfredsstillende måte. Siden brukeren spør når du bruker Copilot Voice, utløser ikke nettsøk, kan det hende copilot ikke kan svare på gjeldende hendelser i talemodus.
-
Avhengighet av Internett-tilkobling: Den oppdaterte Copilot-opplevelsen er avhengig av Internett-tilkobling for å fungere. Avbrudd i tilkoblingen kan ha innvirkning på tilgjengeligheten og ytelsen til tjenesten.
Systemytelse
I mange SYSTEMER for kunstig intelligens defineres ytelsen ofte i forhold til nøyaktighet (dvs. hvor ofte AI-systemet tilbyr en riktig prognose eller utdata). Med Copilot fokuserer vi på Copilot som en AI-drevet assistent som gjenspeiler brukerens preferanser. Derfor kan to forskjellige brukere se på samme utdata og ha ulike meninger om hvor nyttig eller relevant det er for deres unike situasjon og forventninger, noe som betyr at ytelsen for disse systemene må defineres mer fleksibelt. Vi anser ytelsen generelt for å bety at programmet yter som brukerne forventer.
Anbefalte fremgangsmåter for å forbedre systemytelsen
Samhandle med grensesnittet ved hjelp av naturlig samtalespråk. Samhandling med Copilot på en måte som er komfortabel for brukeren er nøkkelen til å få bedre resultater gjennom opplevelsen. På samme måte som å ta i bruk teknikker for å hjelpe folk med å kommunisere effektivt i sitt daglige liv, kan samhandling med Copilot som en AI-drevet assistent enten gjennom tekst eller tale som er kjent for brukeren, bidra til å fremkalle bedre resultater.
Brukeropplevelse og implementering. Effektiv bruk av Copilot krever at brukerne forstår funksjonene og begrensningene. Det kan være en læringskurve, og brukerne ønsker kanskje å referere til ulike Copilot-ressurser (f.eks. dette dokumentet og våre Vanlige spørsmål om Copilot) for effektivt å samhandle med og dra nytte av tjenesten.
Tilordning, måling og administrasjon av risikoer
I likhet med andre transformasjonsteknologier er det ikke risikofritt å utnytte fordelene ved kunstig intelligens, og en viktig del av Microsofts ansvarlige AI-program er utformet for å identifisere og kartlegge potensielle risikoer, måle disse risikoene og administrere dem ved å bygge begrensninger og kontinuerlig forbedre Copilot over tid. I avsnittene nedenfor beskriver vi vår iterative tilnærming til kartlegging, måling og administrering av potensielle risikoer.
Kart: Nøye planlegging og pre-deployment adversarial testing, for eksempel rød teaming, hjelper oss med å kartlegge potensielle risikoer. De underliggende modellene som driver Copilot-opplevelsen gikk gjennom rød teamtesting fra testere som representerer tverrfaglige perspektiver på tvers av relevante emneområder. Denne testingen ble utformet for å vurdere hvordan den nyeste teknologien ville fungere både med og uten ytterligere sikkerhetstiltak brukt på den. Hensikten med disse øvelsene på modellnivå er å produsere skadelige reaksjoner, vise potensielle veier for misbruk og identifisere evner og begrensninger.
Før vi gjorde Copilot-opplevelsen offentlig tilgjengelig i en begrenset forhåndsversjon, gjennomførte vi også rød teaming på søknadsnivå for å evaluere Copilot for mangler og sårbarheter. Denne prosessen hjalp oss med å bedre forstå hvordan systemet kunne brukes av en rekke brukere og hjalp oss med å forbedre våre begrensninger.
Mål: I tillegg til å evaluere Copilot mot våre eksisterende sikkerhetsevalueringer, hjalp bruken av rød teaming beskrevet ovenfor oss til å utvikle evalueringer og ansvarlige AI-måledata som tilsvarer identifiserte potensielle risikoer, for eksempel jailbreaks, skadelig innhold og ujordet innhold.
Vi samlet inn samtaledata rettet mot disse risikoene, ved hjelp av en kombinasjon av menneskelige deltakere og et automatisert datasamlebånd for samtalegenerering. Hver evaluering blir deretter scoret av enten en pool av trente menneskelige merknader eller en automatisert merknadssamlebånd. Hver gang produktet endres, eksisterende begrensninger oppdateres, eller nye begrensninger foreslås, oppdaterer vi evalueringssamlebåndene våre for å vurdere både produktytelsen og de ansvarlige måledataene for kunstig intelligens. Disse automatiserte kontekstsamlebåndene for evaluering er en kombinasjon av innsamlede samtaler med menneskelige evaluatorer og syntetiske samtaler generert med LLM-er som blir bedt om å teste retningslinjer på en motsatt måte. Hver av disse sikkerhetsevalueringene blir automatisk scoret med LLM-er. For de nyutviklede evalueringene blir hver evaluering i utgangspunktet scoret av menneskelige etiketter som leser tekstinnholdet eller lytter til lydutdataene, og deretter konverteres til automatiske LLM-baserte evalueringer.
Modellenes tiltenkte virkemåte i kombinasjon med evalueringssamlebånd – både menneskelige og automatiserte – gjør det mulig for oss å raskt utføre måling for potensielle risikoer i stor skala. Når vi identifiserer nye problemer over tid, fortsetter vi å utvide målsettene for å vurdere ytterligere risikoer.
Administrer: Da vi identifiserte potensielle risikoer og misbruk gjennom rød teaming og målte dem med tilnærmingene som er beskrevet ovenfor, utviklet vi ytterligere begrensninger som er spesifikke for Copilot-opplevelsen. Nedenfor beskriver vi noen av disse tiltakene. Vi vil fortsette å overvåke Copilot-opplevelsen for å forbedre produktytelsen og vår tilnærming til risikoreduksjon.
-
Fasede lanseringsplaner og kontinuerlig evaluering. Vi er forpliktet til å lære og forbedre vår ansvarlig KI-tilnærming kontinuerlig etter hvert som teknologiene og brukeratferden vår utvikler seg. Vår trinnvise utgivelsesstrategi har vært en sentral del av hvordan vi flytter teknologien vår trygt fra laboratoriet til verden, og vi er forpliktet til en bevisst, gjennomtenkt prosess for å sikre fordelene med Copilot-opplevelsen. Vi gjør endringer i Copilot regelmessig for å forbedre produktytelsen og eksisterende begrensninger, og implementere nye begrensninger som svar på våre erfaringer.
-
Utnytte klassifiers og systemmeldingen for å redusere potensielle risikoer eller misbruk. Som svar på brukermeldinger kan LLM-er produsere problematisk innhold. Vi diskuterte innholdstyper som vi prøver å begrense i avsnittene Systematferd og Begrensninger ovenfor. Klassifierer og systemmeldingen er to eksempler på begrensninger som er implementert i Copilot for å redusere risikoen for disse innholdstypene. Klassifierer klassifiserer tekst for å flagge potensielt skadelig innhold i brukermeldinger eller genererte svar. Vi bruker også eksisterende anbefalte fremgangsmåter for å utnytte systemmeldingen, som innebærer å gi instruksjoner til modellen for å justere virkemåten til Microsofts AI-prinsipper og med brukernes forventninger.
-
Samtykke til Copilot-bildeopplastinger. Første gang en bruker laster opp et bilde som inneholder ansikter til Copilot, vil de bli bedt om å gi sitt samtykke til å få sine biometriske data lastet opp til Copilot. Hvis en bruker ikke melder seg på, sendes ikke bildet til Copilot. Alle bilder, uavhengig av om de inneholder ansikter eller ikke, slettes innen 30 dager etter at samtalen avsluttes.
-
KI-avsløring. Copilot er også utformet for å informere folk om at de samhandler med et AI-system. Når brukerne kommuniserer med Copilot, tilbyr vi ulike berøringspunkter som er utformet for å hjelpe dem med å forstå egenskapene til systemet, avsløre for dem at Copilot drives av AI og kommuniserer begrensninger. Opplevelsen er utformet på denne måten for å hjelpe brukerne med å få mest mulig ut av Copilot og minimere risikoen for overavhengighet. Avsløringer hjelper også brukere med å forstå Copilot bedre og deres interaksjoner med den.
-
Media proveniens. Når Copilot genererer et bilde, har vi aktivert en "Innholdslegitimasjon"-funksjon, som bruker kryptografiske metoder for å markere kilden, eller "proveniens", av alle AI-genererte bilder som er opprettet ved hjelp av Copilot. Denne teknologien bruker standarder satt av Koalisjonen for innhold og ekthet (C2PA) for å legge til et ekstra lag med tillit og gjennomsiktighet for AI-genererte bilder.
-
Automatisert innholdsgjenkjenning. Når brukere laster opp bilder som en del av chatten, distribuerer Copilot verktøy for å oppdage bilder om seksuell utnyttelse og misbruk av barn (CSEAI). Microsoft rapporterer alle tilsynelatende CSEAI til National Center for Missing and Exploited Children (NCMEC), som kreves av amerikansk lov. Når brukere laster opp filer for å analysere eller behandle, distribuerer Copilot automatisert skanning for å oppdage innhold som kan føre til risiko eller misbruk, for eksempel tekst som kan relateres til ulovlige aktiviteter eller skadelig kode.
-
Vilkår for bruk og regler for god oppførsel. Brukere bør overholde Copilots gjeldende vilkår for bruk og regler for god oppførselfor Microsofts tjenesteavtale, og Microsofts personvernerklæring, som blant annet informerer dem om tillatt og utillatelig bruk og konsekvensene av å bryte vilkårene. Vilkårene for bruk gir også ytterligere avsløringer for brukere og fungerer som en referanse for brukere å lære om Copilot. Brukere som utfører alvorlige eller gjentatte brudd, kan bli midlertidig eller permanent suspendert fra tjenesten.
-
Tilbakemelding, overvåking og tilsyn. Copilot-opplevelsen bygger på eksisterende verktøy som gjør det mulig for brukere å sende inn tilbakemeldinger, som gjennomgås av Microsofts driftsteam. I tillegg vil vår tilnærming til kartlegging, måling og administrasjon av risiko fortsette å utvikle seg etter hvert som vi lærer mer, og vi gjør allerede forbedringer basert på tilbakemeldinger som samles inn i forhåndsvisningsperioder.
Mer informasjon om ansvarlig kunstig intelligens
Rapport om gjennomsiktighet for microsofts ansvarlige kunstig intelligens
Ressurser for microsofts ansvarlige kunstig intelligens
Opplæringskurs for Microsoft Azure om ansvarlig kunstig intelligens
Mer informasjon om Microsoft Copilot
Om dette dokumentet
© 2024 Microsoft Corporation. Med enerett. Dette dokumentet er angitt «som det er» og bare for informasjonsformål. Informasjonen og visningene i dette dokumentet, inkludert URL-adresser og andre referanser til webområder, kan endres uten varsel. Du bruker den på egen risiko. Noen eksempler er bare for illustrasjon og er fiktive. Ingen reell tilknytning er tiltenkt eller tiltenkt.
Dette dokumentet er ikke ment å være, og bør ikke tolkes som å gi, juridisk rådgivning. Jurisdiksjonen du opererer i, kan ha ulike forskriftsmessige eller juridiske krav som gjelder for AI-systemet. Kontakt en juridisk spesialist hvis du er usikker på lover eller forskrifter som kan gjelde for systemet ditt, spesielt hvis du tror disse kan påvirke disse anbefalingene. Vær oppmerksom på at ikke alle disse anbefalingene og ressursene vil være egnet for hvert scenario, og derimot kan disse anbefalingene og ressursene være utilstrekkelige for enkelte scenarioer.
Publisert: 01.10.2024
Sist oppdatert: 01.10.2024