Logg på med Microsoft
Logg på, eller opprett en konto.
Hei,
Velg en annen konto.
Du har flere kontoer
Velg kontoen du vil logge på med.

Sist oppdatert: februar 2024

Det grunnleggende om Copilot i Bing   

Innledning  

I februar 2023 lanserte Microsoft den nye Bing, en ai-forbedret nettsøkopplevelse. Den støtter brukere ved å oppsummere søkeresultater på nettet og gi en chatopplevelse. Brukere kan også generere kreativt innhold, for eksempel dikt, vitser, historier og bilder med Bing Bildeskaper. Den nye ai-forbedrede Bing kjører på en rekke avanserte teknologier fra Microsoft og OpenAI, inkludert GPT-4, en banebrytende stor språkmodell (LLM), og DALL-E, en dyp læringsmodell for å generere digitale bilder fra naturlige språkbeskrivelser, begge fra OpenAI. Vi jobbet med begge modellene i flere måneder før offentlig utgivelse for å utvikle et tilpasset sett med funksjoner og teknikker for å bli med i denne banebrytende AI-teknologien og nettsøket i den nye Bing.  I november 2023 omdøpte Microsoft den nye Bing til Copilot i Bing.

Hos Microsoft forplikter vi oss til ansvarlig kunstig intelligens på alvor. Copilot i Bing-opplevelsen er utviklet i tråd med Microsofts AI-prinsipper, Microsofts ansvarlige AI-standard og i samarbeid med ansvarlige AI-eksperter på tvers av selskapet, inkludert Microsofts Office of Responsible AI, våre tekniske team, Microsoft Research og Aether. Du kan finne ut mer om ansvarlig kunstig intelligens hos Microsoft her.  

I dette dokumentet beskriver vi vår tilnærming til ansvarlig kunstig intelligens for Copilot i Bing. I forkant av utgivelsen vedtok vi toppmoderne metoder for å identifisere, måle og redusere potensielle risikoer og misbruk av systemet og for å sikre fordelene for brukerne. Etter hvert som vi har fortsatt å utvikle Copilot i Bing siden vi først ble utgitt, har vi også fortsatt å lære og forbedre vår ansvarlige AI-innsats. Dette dokumentet oppdateres regelmessig for å kommunisere prosessene og metodene vi utvikler.   

Nøkkeltermer  

Copilot i Bing er en kunstig intelligens-forbedret nettsøkeopplevelse. Når den kjører på en kraftig, ny teknologi, begynner vi med å definere noen viktige termer.  

Maskinlæringsmodeller som bidrar til å sortere data i merkede klasser eller kategorier med informasjon. I Copilot i Bing er én måte vi bruker klassifiere på, å bidra til å oppdage potensielt skadelig innhold som sendes inn av brukere eller genereres av systemet for å redusere generering av innholdet og misbruk eller misbruk av systemet. 

Copilot i Bing er jordet i nettsøkeresultater når brukere søker informasjon. Dette betyr at vi midtstiller svaret på en brukers spørring eller spør om høytstående innhold fra nettet, og vi gir koblinger til nettsteder slik at brukerne kan lære mer. Bing rangerer nettsøkinnhold etter tungt vektende funksjoner som relevans, kvalitet og troverdighet og friskhet. Vi beskriver disse konseptene mer detaljert i hvordan Bing leverer Søk resultater (se «Kvalitet og troverdighet» i «Hvordan Bing rangerer Søk resultater»).   

Vi anser jordede svar som svar fra Copilot i Bing, der uttalelser støttes av informasjon som finnes i inndatakilder, for eksempel nettsøkresultater fra spørringen eller ledeteksten, Bings kunnskapsbase av faktasjekket informasjon, og, for chatopplevelsen, nylig samtalelogg fra chatten. Ujordede svar er de der en setning ikke er jordet i disse inndatakildene.  

Store språkmodeller (LLM-er) i denne konteksten er AI-modeller som er opplært på store mengder tekstdata for å forutsi ord i sekvenser. Llms er i stand til å utføre en rekke oppgaver, for eksempel tekstgenerering, oppsummering, oversettelse, klassifisering og mer.  

Metaprompten er et program som fungerer til å veilede systemets virkemåte. Deler av metaprompten bidrar til å justere systematferden med Microsoft AI-prinsipper og brukerforventninger. Metaprompten kan for eksempel inneholde en linje, for eksempel «kommunisere på brukerens språk».  

En metode eller kombinasjon av metoder som er utformet for å redusere potensielle risikoer som kan oppstå ved bruk av AI-drevne funksjoner i Copilot i Bing.  

Tekst, tale, bilder og/eller andre aktiverte spørringer en bruker sender til Bing som en inndata til modellen som driver nye AI-drevne generative opplevelser i Bing. En bruker kan for eksempel skrive inn følgende ledetekst:  

"Jeg planlegger en reise til bryllupsdagen vår i september. Hva er noen steder vi kan gå som er innen en 3-timers flytur fra London Heathrow?”  

Teksten en bruker sender til Bing fra søkefeltet for nettsøk. I dette dokumentet skiller vi en spørring (for nettsøk) fra en ledetekst (for AI-drevne generative opplevelser i Bing). En bruker kan for eksempel skrive inn følgende spørring for å søke på nettet:  

"reisemål i nærheten av London Heathrow flyplass"  

Teknikker som brukes av eksperter til å vurdere begrensninger og sårbarheter i et system og til å teste effektiviteten av planlagte begrensninger. Rød teamtesting og stresstesting brukes til å identifisere potensielle risikoer og er forskjellig fra systematisk måling av risiko.   

Teksten, bildet, diagrammene osv. som Copilot i Bing sender som svar på en ledetekst. Synonymer for «svar» inkluderer «fullføring», «generasjon» og «svar». Bing kan for eksempel gi følgende svar på ledeteksten vi brukte i definisjonen av «ledetekst» ovenfor:   

Gratulerer med bryllupsdagen! Det er mange steder du kan gå som er innen en 3-timers flytur fra London Heathrow. Ifølge en kilde, noen av helgen rømmer innen tre timer med fly fra London er Bilbao, København, Reykjavik, og Stockholm 1, 2. En annen kilde antyder at noen av de beste stedene å gå i Europa i september er Krakow, Firenze og Lisboa 3, 4. Du kan også sjekke direktefly fra London Heathrow til ulike destinasjoner og se hva som appellerer til deg 5. Jeg håper du har en fantastisk tur!”  

Tiltenkte bruksområder og nye AI-opplevelser  

Copilot i Bings tiltenkte bruksområder er å koble brukere med relevante søkeresultater, se gjennom resultater fra hele nettet for å finne og oppsummere svar brukere leter etter, hjelpe brukerne med å forbedre sin forskning for å få svar med en chatopplevelse, og skape kreativitet ved å hjelpe brukerne med å opprette innhold. Copilot i Bings generative AI-opplevelser nedenfor støtter målet om å være en AI-drevet copilot for nettet.  

Oppsummering. Når brukere sender inn en søkespørring på Copilot i Bing, behandler Bing-systemet spørringen, utfører ett eller flere nettsøk og bruker de øverste søkeresultatene på nettet til å generere et sammendrag av informasjonen som skal presenteres for brukerne. Disse sammendragene inkluderer referanser for å hjelpe brukere med å se og enkelt få tilgang til søkeresultatene som brukes til å lage grunnlag for sammendraget. Sammendrag kan vises på høyre side av søkeresultatsiden og i chatteopplevelsen.  

Chat-opplevelse. I tillegg til oppsummering kan brukere chatte med Copilot i Bing-systemet via tekst, bilde eller taleinndata, stille oppfølgingsspørsmål for å klargjøre søk og finne ny informasjon, og sende inn meldinger for å generere kreativt innhold. Referanser er også inkludert i chatteopplevelsen når Copilot i Bing oppsummerer søkeresultatene i svaret.   

Generering av kreativt innhold. I både chatteopplevelsen og på søkesiden kan brukere opprette dikt, vitser, historier, bilder og annet innhold med hjelp fra Copilot i Bing.  Bilder opprettes av Designer (den tidligere Bing-Bildeskaper), og brukere kan få tilgang til funksjonen via Designer hjemmeside samt Copilot-siden. 

Hvordan fungerer Copilot i Bing?  

Med Copilot i Bing har vi utviklet en innovativ tilnærming for å bringe de state-of-the-art LLMs til nettsøk. Når en bruker skriver inn en ledetekst i Copilot i Bing, sendes ledeteksten, loggen over nylige samtaler, metabeskyttelsen og de beste søkeresultatene som inndata til llm. Modellen genererer et svar ved hjelp av brukerens ledetekst og nylige samtalelogg for å kontekstualisere forespørselen, metabeskyttelsen for å justere svar etter Microsoft AI-prinsipper og brukerforventninger, og søkeresultatene til bakkesvar i eksisterende, høytstående innhold fra nettet.   

Svarene presenteres for brukere i flere forskjellige formater, for eksempel tradisjonelle koblinger til nettinnhold, AI-genererte oppsummeringer, bilder og chat-svar. Oppsummeringer og chat-svar som er avhengige av nettsøkresultater, inkluderer referanser og en «Mer informasjon»-del under svarene, med koblinger til søkeresultater som ble brukt til å jorde svaret. Brukere kan klikke disse koblingene for å lære mer om et emne og informasjonen som brukes til å lage grunnlaget for sammendraget eller chattesvaret.    

I Copilot-opplevelsen kan brukere utføre nettsøk i samtale ved å legge til kontekst i ledeteksten og samhandle med systemsvarene for å angi søkeinteressene ytterligere. En bruker kan for eksempel stille oppfølgingsspørsmål, be om ytterligere tydelig informasjon eller svare på systemet på en samtalemåte. I chatteopplevelsen kan brukere også velge et svar fra forhåndsskrevne forslag, som vi kaller chatforslag. Disse knappene vises etter hvert svar fra Copilot og gir foreslåtte spørsmål om å fortsette samtalen i chatteopplevelsen. Chatforslag vises også sammen med oppsummert innhold på søkeresultatsiden som et inngangspunkt for chatteopplevelsen.  

Copilot i Bing tillater også en bruker å lage historier, dikt, sangtekster og bilder med hjelp fra Bing. Når Copilot i Bing oppdager brukerens hensikt å generere kreativt innhold (for eksempel begynner ledeteksten med «skriv meg en ...»), vil systemet i de fleste tilfeller generere innhold som svarer på brukerens ledetekst. På samme måte, når Copilot i Bing oppdager brukerens hensikt å generere et bilde (for eksempel begynner ledeteksten med "tegn meg en ..."), vil systemet i de fleste tilfeller generere et bilde som svarer på brukerens ledetekst. I Visual Søk i Chat-opplevelsen, med et bilde tatt av brukerens kamera, lastet opp fra brukerens enhet eller koblet fra nettet, kan brukere be Copilot i Bing om å forstå konteksten, tolke og svare på spørsmål om bildet.  Brukere kan også laste opp filene sine til Copilot for å tolke, konvertere, behandle eller beregne informasjon fra dem. I den Microsoft Designer opplevelsen som brukere kan få tilgang til gjennom Copilot i Bing, kan brukere ikke bare generere bilder ved hjelp av ledetekster, men også endre størrelse på eller omforme dem, eller gjøre endringer som å uskarpe bakgrunn eller gjøre fargene mer levende. 

Brukere med Microsoft-kontoer (MSA) har nå også mulighet til å abonnere på Copilot Pro som tilbyr en forbedret opplevelse, inkludert akselerert ytelse, raskere oppretting av AI-bilder og snart muligheten til å opprette dine egne Copilot GPT-er. Copilot Pro er for øyeblikket tilgjengelig i begrensede land, og vi planlegger å gjøre Copilot Pro tilgjengelig i flere markeder snart.

I Copilot-opplevelsen kan brukerne få tilgang til Copilot GPTs. En Copilot GPT, som Designer GPT, er en tilpasset versjon av Microsoft Copilot om et emne som er av spesiell interesse for deg, for eksempel fitness, reise og matlaging, som kan bidra til å gjøre vage eller generelle ideer til mer spesifikke ledetekster med utdata, inkludert tekster og bilder. I Copilot kan brukere se tilgjengelige Copilot GPTs, og brukere med Copilot Pro kontoer vil snart ha tilgang til Copilot GPT Builder, en funksjon som lar brukerne opprette og konfigurere en egendefinert Copilot GPT. De ansvarlige ai-reduksjonene nevnt ovenfor for Copilot i Bing gjelder for Copilot GPTs.

Hvis du vil lære mer om hvordan Copilot Pro og Copilot GPTs fungerer, kan du gå til her.

Copilot i Bing arbeider for å gi varierte og omfattende søkeresultater med sin forpliktelse til fri og åpen tilgang til informasjon. Samtidig inkluderer vårt produktkvalitetsarbeid å arbeide for å unngå utilsiktet å fremme potensielt skadelig innhold for brukerne. Mer informasjon om hvordan Bing rangerer innhold, inkludert hvordan det definerer relevans og kvaliteten og troverdigheten til en nettside, er tilgjengelig i «Bing Webmaster Guidelines».   Mer informasjon om Bings prinsipper for innholdsmoderasjon er tilgjengelig i «Hvordan Bing leverer søkeresultater».   

I Copilot i Windows-opplevelsen kan Copilot i Bing arbeide med Windows-operativsystemet for å gi Windows-spesifikke ferdigheter som å endre brukerens tema eller bakgrunn, og endre innstillinger som lyd, Bluetooth og nettverk. Disse opplevelsene gjør det mulig for brukeren å konfigurere innstillingene sine og forbedre brukeropplevelsen ved hjelp av spørsmål om naturlig språk til LLM. Programspesifikk funksjonalitet kan også leveres fra programtillegg fra tredjeparter. Disse kan automatisere gjentakende oppgaver og oppnå større brukereffektivitet. Siden llms av og til kan gjøre feil, angis passende brukerbekreftelsesmeldinger slik at brukeren er den endelige voldgiftsdommeren for endringer som kan gjøres. 

Identifisere, måle og redusere risikoer  

I likhet med andre transformasjonsteknologier er det ikke risikofritt å utnytte fordelene med KUNSTIG INTELLIGENS, og en viktig del av Microsofts ansvarlige AI-program er utformet for å identifisere potensielle risikoer, måle deres tilbøyelighet til å skje og bygge begrensninger for å løse dem. Veiledet av våre AI-prinsipper og vår ansvarlige AI-standard, forsøkte vi å identifisere, måle og redusere potensiell risiko og misbruk av Copilot i Bing, samtidig som vi sikret transformative og fordelaktige bruksområder som den nye opplevelsen gir. I avsnittene nedenfor beskriver vi vår gjentakende tilnærming for å identifisere, måle og redusere potensielle risikoer.   

På modellnivå begynte vårt arbeid med utforskende analyser av GPT-4 på sensommeren 2022. Dette inkluderte å gjennomføre omfattende rød teamtesting i samarbeid med OpenAI. Denne testingen ble utformet for å vurdere hvordan den nyeste teknologien ville fungere uten ytterligere sikkerhetstiltak brukt på den. Vår spesifikke intensjon på dette tidspunktet var å produsere skadelige reaksjoner, vise potensielle veier for misbruk og identifisere evner og begrensninger. Våre kombinerte læringer på tvers av OpenAI og Microsoft bidro til fremskritt innen modellutvikling, og for oss hos Microsoft informerte vi vår forståelse av risiko og bidro til tidlige tiltaksstrategier for Copilot i Bing.  

I tillegg til rød teamtesting på modellnivå gjennomførte et tverrfaglig team av eksperter en rekke runder med rød teamtesting på programnivå på Copilot i Bing AI opplevelser før de ble offentlig tilgjengelige i vår begrensede forhåndsversjon. Denne prosessen hjalp oss med å bedre forstå hvordan systemet kunne utnyttes av motstridende aktører og forbedre våre begrensninger. Ikke-adversarial stress-testere også omfattende evaluert nye Bing funksjoner for mangler og sårbarheter. Etter utgivelsen integreres de nye AI-opplevelsene i Bing i Bings tekniske organisasjons eksisterende produksjonsmåling og testing av infrastruktur. Røde teamtestere fra ulike områder og bakgrunner forsøker for eksempel kontinuerlig og systematisk å kompromittere systemet, og resultatene deres brukes til å utvide datasettene som Bing bruker til å forbedre systemet.  

Rød teamtesting og stresstesting kan vise forekomster av spesifikke risikoer, men i produksjon vil brukerne ha millioner av forskjellige typer samtaler med Copilot i Bing. Videre er samtaler flersvingede og kontekstavhengige, og identifisering av skadelig innhold i en samtale er en kompleks oppgave. For å bedre forstå og håndtere potensialet for risiko i Copilot i Bing AI opplevelser, utviklet vi ytterligere ansvarlige AI-måledata som er spesifikke for de nye AI-opplevelsene for måling av potensielle risikoer som jailbreaks, skadelig innhold og ujordet innhold. Vi har også aktivert måling i stor skala gjennom delvis automatiserte målesamlebånd. Hver gang produktet endres, eksisterende begrensninger oppdateres, eller nye begrensninger foreslås, oppdaterer vi målesamlebåndene våre for å vurdere både produktytelsen og de ansvarlige AI-måledataene.  

Som et illustrerende eksempel inkluderer det oppdaterte delvis automatiserte målesamlebåndet for skadelig innhold to store innovasjoner: samtalesimulering og automatisert, menneskelig verifisert samtalemerknad. Først bygde ansvarlige AI-eksperter maler for å fange opp strukturen og innholdet i samtaler som kan resultere i ulike typer skadelig innhold. Disse malene ble deretter gitt til en samtaleagent som samhandlet som en hypotetisk bruker med Copilot i Bing, og genererte simulerte samtaler. For å identifisere om disse simulerte samtalene inneholdt skadelig innhold, tok vi retningslinjer som vanligvis brukes av ekspertlingvister til å merke data og endret dem for bruk av GPT-4 til å merke samtaler i stor skala, og finjustere retningslinjene til det var betydelig enighet mellom modelletikettede samtaler og menneskelig merkede samtaler. Til slutt brukte vi de modelletikettede samtalene til å beregne en ansvarlig AI-måleverdi som fanger effektiviteten til Copilot i Bing for å redusere skadelig innhold.   

Våre målesamlebånd gjør det mulig for oss å raskt utføre måling for potensielle risikoer i stor skala. Når vi identifiserer nye problemer gjennom forhåndsvisningsperioden og pågående rød teamtesting, fortsetter vi å utvide målsettene for å vurdere ytterligere risikoer.  

Da vi identifiserte potensielle risikoer og misbruk gjennom prosesser som rød teamtesting og stresstesting og målte dem med de innovative tilnærmingene som er beskrevet ovenfor, utviklet vi ytterligere begrensninger for de som brukes til tradisjonell søk. Nedenfor beskriver vi noen av disse begrensningene. Vi vil fortsette å overvåke Copilot i Bing AI opplevelser for å forbedre produktytelsen og reduksjonene.  

Faset utgivelse, kontinuerlig evaluering. Vi er forpliktet til å lære og forbedre vår ansvarlige ai-tilnærming kontinuerlig etter hvert som teknologiene og brukeratferden vår utvikler seg. Vår trinnvise utgivelsesstrategi har vært en sentral del av hvordan vi flytter teknologien vår trygt fra laboratoriene til verden, og vi er forpliktet til en bevisst, gjennomtenkt prosess for å sikre fordelene med Copilot i Bing. Å begrense antall personer med tilgang i løpet av forhåndsvisningsperioden har gjort det mulig for oss å oppdage hvordan folk bruker Copilot i Bing, inkludert hvordan folk kan misbruke det, slik at vi kan prøve å redusere nye problemer før bredere utgivelse. Vi krever for eksempel at brukere godkjenner ved hjelp av Microsoft-kontoen sin før de får tilgang til den fullstendige nye Bing-opplevelsen. Uautoriserte brukere har bare tilgang til en begrenset forhåndsvisning av opplevelsen. Disse trinnene fraråder misbruk og hjelper oss med å (etter behov) iverksette nødvendige tiltak som svar på brudd på reglene for god oppførsel.  Vi gjør endringer i Copilot i Bing daglig for å forbedre produktytelsen, forbedre eksisterende begrensninger og implementere nye begrensninger som svar på våre erfaringer i forhåndsvisningsperioden.  

Jording i søkeresultater. Som nevnt ovenfor er Copilot i Bing utformet for å gi svar som støttes av informasjonen i søkeresultater på nettet når brukere søker etter informasjon. Systemet leveres for eksempel med tekst fra de beste søkeresultatene og instruksjoner via metaprompten for å jorde svaret. Ved oppsummering av innhold fra nettet kan Copilot i Bing imidlertid inkludere informasjon i sitt svar som ikke finnes i inndatakildene. Det kan med andre ord gi ujordede resultater. Våre tidlige evalueringer har indikert at ujordede resultater i chat kan være mer utbredt for visse typer ledetekster eller emner enn andre, for eksempel å be om matematiske beregninger, finansiell eller markedsinformasjon (for eksempel selskapets inntjening, aksjeresultatdata) og informasjon som nøyaktige datoer for hendelser eller bestemte priser på elementer. Brukere bør alltid være forsiktige og bruke beste vurdering når de viser summerte søkeresultater, enten på siden med søkeresultater eller i chatteopplevelsen. Vi har iverksatt flere tiltak for å redusere risikoen for at brukere kan være altfor avhengige av ujordet generert innhold i oppsummeringsscenarioer og chat-opplevelser. Svar i Copilot i Bing som er basert på søkeresultater, inkluderer for eksempel referanser til kildenettstedene for brukere for å bekrefte svaret og lære mer. Brukere får også eksplisitt varsel om at de samhandler med et AI-system og rådes til å sjekke kildematerialet for nettresultatet for å hjelpe dem med å bruke beste vurdering.  

AI-baserte klassifierere og metaprosessering for å redusere potensielle risikoer eller misbruk. Bruken av llms kan produsere problematisk innhold som kan føre til risiko eller misbruk. Eksempler kan være utdata relatert til selvskading, vold, grafisk innhold, åndsverk, unøyaktig informasjon, hatefull tale eller tekst som kan relateres til ulovlige aktiviteter. Klassifiers og metaprompting er to eksempler på begrensninger som er implementert i Copilot i Bing for å redusere risikoen for disse innholdstypene. Klassifiere klassifiserer tekst for å flagge ulike typer potensielt skadelig innhold i søkespørringer, chat-ledetekster eller genererte svar. Bing bruker AI-baserte klassifiere og innholdsfiltre, som gjelder for alle søkeresultater og relevante funksjoner. Vi har utformet flere ledetekstklassifierere og innholdsfiltre spesielt for å håndtere mulige risikoer som Copilot har reist i Bing-funksjoner. Flagg fører til potensielle begrensninger, for eksempel ikke å returnere generert innhold til brukeren, omdirigere brukeren til et annet emne eller omdirigere brukeren til tradisjonelt søk. Metaprompting innebærer å gi instruksjoner til modellen for å veilede virkemåten, inkludert slik at systemet oppfører seg i samsvar med Microsofts AI-prinsipper og brukerforventninger. Metaprompten kan for eksempel inneholde en linje, for eksempel «kommunisere på brukerens språk».   

Beskytte personvernet i Visual Søk i Copilot i Bing. Når brukere laster opp et bilde som en del av chatledeteksten, bruker Copilot i Bing ansiktsskarp teknologi før de sender bildet til AI-modellen. Ansiktsskarphet brukes til å beskytte personvernet til enkeltpersoner i bildet. Den ansiktsuskarpe teknologien er avhengig av kontekstspor for å finne ut hvor du skal uskarpe og vil forsøke å gjøre alle ansikter uskarpe. Med ansiktene uskarpe kan AI-modellen sammenligne det inndatate bildet med de av offentlig tilgjengelige bilder på Internett. Som et resultat, for eksempel, Copilot i Bing kan være i stand til å identifisere en berømt basketballspiller fra et bilde av den spilleren på en basketballbane ved å opprette en numerisk representasjon som gjenspeiler spillerens jersey nummer, jersey farge, tilstedeværelsen av en basketball hoop, etc. Copilot i Bing lagrer ikke numeriske representasjoner av personer fra opplastede bilder og deler dem ikke med tredjeparter. Copilot i Bing bruker numeriske fremstillinger av bildene som brukere laster opp bare for å svare på brukernes ledetekster, og deretter slettes de innen 30 dager etter at chatten avsluttes.    

Hvis brukeren spør Copilot i Bing om informasjon om et opplastet bilde, kan chattesvar gjenspeile virkningen av ansiktsuskarphet på modellens evne til å gi informasjon om det opplastede bildet. Copilot i Bing kan for eksempel beskrive noen som å ha et uskarpt ansikt.    

Begrense samtaledrift. I løpet av forhåndsvisningsperioden lærte vi at svært lange chatøkter kan resultere i svar som er repeterende, uhjelpsomme eller inkonsekvente med Copilot i Bings tiltenkte tone. For å løse denne samtaledriften begrenset vi antall svinger (utvekslinger som inneholder både et brukerspørsmål og et svar fra Copilot i Bing) per chat-økt. Vi fortsetter å evaluere flere tilnærminger for å løse dette problemet.  

Be om berikelse. I noen tilfeller kan ledeteksten til en bruker være tvetydig. Når dette skjer, kan Copilot i Bing bruke LLM til å bygge ut flere detaljer i ledeteksten for å sikre at brukerne får svaret de søker. Slik rask berikelse er ikke avhengig av noen kunnskap om brukeren eller deres tidligere søk, men i stedet på AI-modellen. Disse reviderte spørringene vil være synlige i brukerens chattelogg, og kan, i likhet med andre søk, slettes ved hjelp av produktkontroller.  

Brukersentrert utforming og brukeropplevelsesintervensjoner. Brukersentrert utforming og brukeropplevelser er en viktig del av Microsofts tilnærming til ansvarlig kunstig intelligens. Målet er å rote produktutforming i behovene og forventningene til brukerne. Når brukere samhandler med Copilot i Bing for første gang, tilbyr vi ulike berøringspunkter som er utformet for å hjelpe dem med å forstå egenskapene til systemet, avsløre for dem at Copilot i Bing drives av AI og kommuniserer begrensninger. Opplevelsen er utformet på denne måten for å hjelpe brukerne med å få mest mulig ut av Copilot i Bing og minimere risikoen for overavhengighet. Elementer av opplevelsen hjelper også brukerne med å forstå Copilot bedre i Bing og deres samhandlinger med den. Disse inkluderer chatforslag som er spesifikke for ansvarlig kunstig intelligens (for eksempel hvordan bruker Bing KUNSTIG INTELLIGENS? Hvorfor vil ikke Copilot i Bing svare på noen emner?), forklaringer av begrensninger, måter brukere kan lære mer om hvordan systemet fungerer og rapportere tilbakemeldinger, og enkelt navigerbare referanser som vises i svar for å vise brukerne resultatene og sidene der svarene er jordet.  

AI-avsløring. Copilot i Bing gir flere berøringspunkter for meningsfull ai-avsløring der brukerne blir varslet om at de samhandler med et AI-system, samt muligheter til å lære mer om Copilot i Bing. Å styrke brukere med denne kunnskapen kan hjelpe dem med å unngå å stole for mye på kunstig intelligens og lære om systemets styrker og begrensninger.  

Media proveniens.Microsoft Designer har aktivert funksjonen «Innholdslegitimasjon», som bruker kryptografiske metoder til å markere kilden, eller «proveniens», for alle AI-genererte bilder som er opprettet på Designer. Den usynlige digitale vannmerkefunksjonen viser kilden, klokkeslettet og datoen for den opprinnelige opprettingen, og denne informasjonen kan ikke endres. Teknologien benytter standarder satt av Koalisjonen for innhold og ekthet (C2PA) for å legge til et ekstra lag med tillit og gjennomsiktighet for AI-genererte bilder. Microsoft er en av grunnleggerne av C2PA og har bidratt med kjerneteknologien for digital innholds proveniens. 

Vilkår for bruk og regler for god oppførsel. Denne ressursen styrer bruken av Copilot i Bing. Brukere bør overholde vilkårene for bruk og regler for god oppførsel, som blant annet informerer dem om tillatt og utillatelig bruk og konsekvensene av brudd på vilkårene. Vilkårene for bruk gir også ytterligere avsløringer for brukere og fungerer som en praktisk referanse for brukere å lære om Copilot i Bing.   

Operasjoner og rask respons. Vi bruker også Copilot i Bings pågående overvåkings- og driftsprosesser for å håndtere når Copilot i Bing mottar signaler, eller mottar en rapport, som indikerer mulig misbruk eller brudd på vilkårene for bruk eller regler for god oppførsel.  

Tilbakemelding, overvåking og tilsyn. Copilot i Bing-opplevelsen bygger på eksisterende verktøy som gjør det mulig for brukere å sende inn tilbakemeldinger og rapportere bekymringer, som gjennomgås av Microsofts driftsteam. Bings driftsprosesser har også utvidet seg for å imøtekomme funksjonene i Copilot i Bing-opplevelsen, for eksempel oppdatering av siden Rapporter en bekymring for å inkludere de nye innholdstypene som brukerne genererer ved hjelp av modellen.   

Vår tilnærming til identifisering, måling og reduserende risiko vil fortsette å utvikle seg etter hvert som vi lærer mer, og vi gjør allerede forbedringer basert på tilbakemeldinger som samles inn i forhåndsvisningsperioden.     

Automatisert innholdsgjenkjenning. Når brukere laster opp bilder som en del av chatledeteksten, distribuerer Copilot i Bing verktøy for å oppdage bilder av seksuell utnyttelse og misbruk av barn (CSEAI), spesielt PhotoDNA hash-matching-teknologi. Microsoft utviklet PhotoDNA for å finne duplikater av kjente CSEAI. Microsoft rapporterer alle tilsynelatende CSEAI til National Center for Missing and Exploited Children (NCMEC), som kreves av amerikansk lov. Når brukere laster opp filer for å analysere eller behandle, distribuerer Copilot automatisert skanning for å oppdage innhold som kan føre til risiko eller misbruk, for eksempel tekst som kan relateres til ulovlige aktiviteter eller skadelig kode.

Beskytte personvernet  

Microsofts langvarige tro på at personvern er en grunnleggende menneskerettighetspersonighet har informert alle stadier i Microsofts utvikling og distribusjon av Copilot i Bing-erfaring. Våre forpliktelser til å beskytte personvernet til alle brukere, blant annet ved å gi enkeltpersoner gjennomsiktighet og kontroll over dataene og integrere personvernet ved å utforme gjennom dataminimering og formålsbegrensning, er grunnleggende for Copilot i Bing. Etter hvert som vi utvikler vår tilnærming til å tilby Copilot i Bings generative AI-opplevelser, vil vi kontinuerlig utforske hvordan vi best kan beskytte personvernet. Dette dokumentet oppdateres når vi gjør det. Mer informasjon om hvordan Microsoft beskytter brukernes personvern er tilgjengelig i Microsofts personvernerklæring.  

I Copilot i Windows-opplevelsen kan Windows-ferdigheter, som en del av funksjonaliteten, dele brukerinformasjon med chattesamtalen. Dette er underlagt brukergodkjenning, og grensesnittmeldinger vises for å bekrefte brukerhensikten før brukerinformasjon deles med chattesamtalen.

Microsoft fortsetter å vurdere behovene til barn og unge som en del av risikovurderingene av nye generative AI-funksjoner i Copilot i Bing. Alle Microsoft-kontoer for barn som identifiserer brukeren som under 13 år eller som ellers angitt i henhold til lokale lover, kan ikke logge på for å få tilgang til den fullstendige nye Bing-opplevelsen.   

Som beskrevet ovenfor, har vi for alle brukere implementert sikkerhetstiltak som reduserer potensielt skadelig innhold. I Copilot i Bing er resultatene satt som i Bing SafeSearchs strenge modus, som har det høyeste nivået av sikkerhetsbeskyttelse i det viktigste Bing-søket, og dermed hindrer brukere, inkludert ungdomsbrukere, fra å bli utsatt for potensielt skadelig innhold. I tillegg til informasjonen vi har oppgitt i dette dokumentet og i vanlige spørsmål om chattefunksjoner, er mer informasjon om hvordan Copilot i Bing fungerer for å unngå å svare med uventet støtende innhold i søkeresultatene, tilgjengelig her.  

Microsoft har forpliktet seg til ikke å levere personlig reklame basert på online atferd til barn hvis fødselsdato i Microsoft-kontoen identifiserer dem som under 18 år. Denne viktige beskyttelsen vil utvides til annonser i Copilot i Bing-funksjoner. Brukere kan se kontekstavhengige annonser basert på spørringen eller ledeteksten som brukes til å samhandle med Bing.  

For å låse opp det transformative potensialet til generativ kunstig intelligens, må vi bygge tillit til teknologien gjennom å gi enkeltpersoner mulighet til å forstå hvordan dataene brukes og gi dem meningsfulle valg og kontroller over dataene sine. Copilot i Bing er utformet for å prioritere menneskelig byrå, gjennom å gi informasjon om hvordan produktet fungerer så vel som begrensningene, og gjennom å utvide våre robuste forbrukervalg og kontroller til Copilot i Bing-funksjoner.   

Microsofts personvernerklæring gir informasjon om våre gjennomsiktige personvernpraksiser for å beskytte kundene våre, og den angir informasjon om kontrollene som gir brukerne våre muligheten til å vise og administrere sine personlige data. For å sikre at brukerne har informasjonen de trenger når de samhandler med Bings nye samtalefunksjoner, informerer avsløringer i produktet brukerne om at de engasjerer seg i et AI-produkt, og vi gir koblinger til ytterligere vanlige spørsmål og forklaringer om hvordan disse funksjonene fungerer. Microsoft vil fortsette å lytte til tilbakemeldinger fra brukerne og vil legge til ytterligere detaljer om Bings samtalefunksjoner etter behov for å støtte forståelse av hvordan produktet fungerer.   

Microsoft tilbyr også sine brukere robuste verktøy for å utøve sine rettigheter over sine personlige data. For data som samles inn av Copilot i Bing, blant annet gjennom brukerspørringer og ledetekster, gir Microsofts personverninstrumentbord godkjente (påloggede) brukere verktøy for å utøve sine registrerte rettigheter, blant annet ved å gi brukerne muligheten til å vise, eksportere og slette lagret samtalelogg. Microsoft fortsetter å ta tilbakemeldinger på hvordan de ønsker å administrere sin nye Bing-opplevelse, blant annet gjennom bruk av databehandlingsopplevelser i kontekst.   

Copilot i Bing respekterer også forespørsler under den europeiske retten til å bli glemt, etter prosessen som Microsoft utviklet og raffinerte for Bings tradisjonelle søkefunksjonalitet. Alle brukere kan rapportere bekymringer om generert innhold og svar her, og våre europeiske brukere kan bruke dette skjemaet til å sende inn forespørsler om å blokkere søkeresultater i Europa under retten til å bli glemt.   

Copilot i Bing vil overholde brukernes personvernvalg, inkludert de som tidligere har blitt gjort i Bing, for eksempel samtykke for datainnsamling og bruk som er forespurt gjennom informasjonskapselbannere og kontroller som er tilgjengelige i Microsofts instrumentbord for personvern. For å bidra til å muliggjøre brukerens autonomi og byrå i å ta informerte beslutninger, har vi brukt vår interne gjennomgangsprosess til å nøye undersøke hvordan valg presenteres for brukerne. 

I tillegg til kontroller som er tilgjengelige via Microsofts instrumentbord for personvern, som gjør det mulig for brukere å vise, eksportere og slette søkeloggen, inkludert komponenter i chatteloggen, har godkjente brukere som har aktivert chatloggfunksjonen i produktet, muligheten til å vise, få tilgang til og laste ned chatteloggen gjennom produktkontroller. Brukere kan når som helst fjerne bestemte chatter fra chatteloggen eller deaktivere funksjonaliteten for chatteloggen ved å gå til siden for Bing-innstillinger. Brukere kan også velge om de vil tillate tilpassing for å få tilgang til en mer skreddersydd opplevelse med tilpassede svar. Brukere kan når som helst melde seg inn og melde seg ut av tilpassing i Chat-innstillinger på Bing-innstillinger-siden.  Hvis du fjerner bestemte chatter fra chatteloggen, hindres de i å bli brukt til tilpassing.  
 
Mer informasjon om chatlogg og tilpassing gis til brukerne i Vanlige spørsmål om Copilot i Bing. 

Copilot i Bing ble bygget med personvern i tankene, slik at personlige data samles inn og brukes bare etter behov og beholdes ikke lenger enn det som er nødvendig. Som nevnt ovenfor distribuerer Visual Søk i Copilot i Bing-funksjonen en mekanisme som gjør ansikter uskarpe i bildene på tidspunktet for opplastingen av brukere, slik at ansiktsbilder ikke behandles videre eller lagres. Mer informasjon om personopplysningene som Bing samler inn, hvordan de brukes, og hvordan de lagres og slettes, er tilgjengelig i Microsofts personvernerklæring, som også gir informasjon om Bings nye chatfunksjoner.   

Copilot i Bing har policyer for dataoppbevaring og sletting for å sikre at personlige data som samles inn gjennom Bings chatfunksjoner, bare beholdes så lenge som nødvendig.   

Vi vil fortsette å lære og utvikle vår tilnærming til å tilby Copilot i Bing, og når vi gjør det, vil vi fortsette å jobbe på tvers av disipliner for å justere vår AI-innovasjon med menneskelige verdier og grunnleggende rettigheter, inkludert beskyttelse av unge brukere og personvern.   

Copilot med kommersiell databeskyttelse 

Copilot med kommersiell databeskyttelse, tidligere kjent som Bing Chat Enterprise ("BCE"), ble utgitt av Microsoft i gratis offentlig forhåndsversjon i juli 2023 som et gratis tillegg for visse M365-kunder. Copilot med kommersiell databeskyttelse er en kunstig intelligens-forbedret nettsøkopplevelse for sluttbrukere av virksomheter. 

Som med Copilot i Bing, når en Copilot med kommersiell databeskyttelse sluttbruker går inn i en ledetekst i grensesnittet, sendes ledeteksten, den umiddelbare samtalen, de beste søkeresultatene og metaprompten som inndata til LLM. Modellen genererer et svar ved hjelp av loggen for ledetekst og umiddelbar samtale for å kontekstualisere forespørselen, metabeskyttelsen for å justere svar etter Microsoft AI-prinsipper og brukerforventninger, og søkeresultatene til bakkesvar i eksisterende, høytstående innhold fra nettet. Dette fungerer på samme måte som Copilot i Bing som beskrevet ovenfor i dette dokumentet, med unntak av at Copilot med kommersiell databeskyttelse bare er avhengig av umiddelbar samtalelogg (ikke nyere samtalelogg) på grunn av at lagret chattelogg ikke er en funksjon som støttes for øyeblikket. Designer og Visual Søk er nå tilgjengelige i denne versjonen. 

I likhet med andre transformasjonsteknologier er det ikke risikofritt å utnytte fordelene med KUNSTIG INTELLIGENS, og en viktig del av Microsofts ansvarlige AI-program er utformet for å identifisere potensielle risikoer, måle deres tilbøyelighet til å skje og bygge begrensninger for å løse dem. Igjen, beskrivelsen ovenfor av Microsofts innsats for å identifisere, måle og redusere potensielle risikoer for Copilot i Bing gjelder også for denne versjonen, med noen avklaringer om begrensninger beskrevet nedenfor: 

Faset utgivelse, kontinuerlig evaluering. I likhet med Copilot Bing, for Copilot med kommersiell databeskyttelse, har vi også tatt en trinnvis utgivelsestilnærming. 18. juli 2023 ble Copilot med kommersiell databeskyttelse tilgjengelig som en gratis forhåndsvisning for kvalifiserte bedriftskunder med bestemte M365-kontoer for å slå på for bedriftssluttbrukerne. Tretti (30) dager etter å ha varslet kvalifiserte bedriftskunder, ble Copilot med kommersiell databeskyttelse "standard på" for de samme kundene. Copilot med kommersiell databeskyttelse har også siden blitt tilgjengelig for bestemte utdanningsfakultetet M365 kontoer. Copilot med kommersiell databeskyttelse ble generelt tilgjengelig for enkelte bedriftskunder 1. desember 2023. I fremtiden planlegger vi å utvide tilgangen til Copilot med kommersiell databeskyttelse til mer Microsoft Entra ID brukere.

Vilkår for bruk og regler for god oppførsel. Sluttbrukere av Copilot med kommersiell databeskyttelse må overholde vilkårene for bruk av sluttbrukere. Disse bruksvilkårene informerer sluttbrukerne om tillatt og utillatelig bruk og konsekvensene av brudd på vilkårene.  

Operasjoner og rask respons. Vi bruker også Copilot i Bings pågående overvåkings- og driftsprosesser for å håndtere når Copilot med kommersiell databeskyttelse mottar signaler, eller mottar en rapport, som indikerer mulig misbruk eller brudd på sluttbrukernes vilkår for bruk

Tilbakemelding, overvåking og tilsyn. Copilot med kommersiell databeskyttelse bruker samme verktøy som Copilot i Bing for brukere til å sende inn tilbakemeldinger og rapportere bekymringer, som gjennomgås av Microsofts driftsteam. Copilot i Bings driftsprosesser har også utvidet seg for å imøtekomme funksjonene i Copilot med kommersielle databeskyttelsesopplevelser, for eksempel oppdatering av siden Rapporter en bekymring for å inkludere de nye innholdstypene som brukerne genererer ved hjelp av modellen.  

For å sikre at sluttbrukerne har den informasjonen de trenger når de samhandler med Copilot med kommersiell databeskyttelse, er det produktdokumentasjon tilgjengelig nederst i dette dokumentet, inkludert vanlige spørsmål og Finn ut mer-sider. 

Ledetekster og svar som genereres av sluttbrukere i Copilot med kommersiell databeskyttelse, behandles og lagres i samsvar med standarder for databehandling for virksomheten. Copilot med kommersielt databeskyttelsestilbud er for øyeblikket bare tilgjengelig for bedriftskunder og deres godkjente voksne sluttbrukere, derfor forventer vi ikke at barn eller unge skal være sluttbrukere av Copilot med kommersiell databeskyttelse på dette tidspunktet. I tillegg gir copilot med kommersiell databeskyttelse ingen atferdsmessig målrettet annonsering til sluttbrukere. I stedet er annonser som vises bare kontekstuelt relevante annonser.  

Finn ut mer

Dette dokumentet er en del av en bredere innsats hos Microsoft for å sette våre AI-prinsipper ut i praksis. Hvis du vil finne ut mer, kan du se:

Microsofts tilnærming til ansvarlig kunstig intelligens

Microsofts ansvarlige AI-standard

Microsofts ansvarlige ai-ressurser  

Opplæringskurs for Microsoft Azure om ansvarlig kunstig intelligens  

Om dette dokumentet  

© 2023 Microsoft. Med enerett. Dette dokumentet er angitt «som det er» og bare for informasjonsformål. Informasjonen og visningene i dette dokumentet, inkludert URL-adresser og andre referanser til webområder, kan endres uten varsel. Du bærer risikoen for å bruke den. Noen eksempler er bare for illustrasjon og er fiktive. Ingen reell tilknytning er tiltenkt eller tiltenkt.  

Trenger du mer hjelp?

Vil du ha flere alternativer?

Utforsk abonnementsfordeler, bla gjennom opplæringskurs, finn ut hvordan du sikrer enheten og mer.

Fellesskap hjelper deg med å stille og svare på spørsmål, gi tilbakemelding og høre fra eksperter med stor kunnskap.

Var denne informasjonen nyttig?

Hvor fornøyd er du med språkkvaliteten?
Hva påvirket opplevelsen din?
Når du trykker på Send inn, blir tilbakemeldingen brukt til å forbedre Microsoft-produkter og -tjenester. IT-administratoren kan samle inn disse dataene. Personvernerklæring.

Takk for tilbakemeldingen!

×