Log på med Microsoft
Log på, eller opret en konto.
Hej
Markér en anden konto.
Du har flere konti
Vælg den konto, du vil logge på med.

Senest opdateret: februar 2024

Grundlæggende om Copilot i Bing   

Introduktion  

I februar 2023 lancerede Microsoft den nye Bing, en AI-forbedret websøgningsoplevelse. Det understøtter brugere ved at opsummere websøgeresultater og levere en chatoplevelse. Brugerne kan også generere kreativt indhold, f.eks. digte, vittigheder, historier og med Bing Image Creator billeder. Den nye AI-forbedrede Bing kører på en række avancerede teknologier fra Microsoft og OpenAI, herunder GPT-4, en avanceret stor sprogmodel (LLM), og DALL-E, en deep learning-model til at generere digitale billeder fra beskrivelser af naturligt sprog, begge fra OpenAI. Vi har arbejdet med begge modeller i måneder før den offentlige udgivelse for at udvikle et tilpasset sæt funktioner og teknikker til at deltage i denne avancerede AI-teknologi og websøgning i den nye Bing.  I november 2023 omdøbte Microsoft den nye Bing til Copilot i Bing.

Hos Microsoft tager vi vores engagement i ansvarlig AI alvorligt. Copilot-oplevelsen i Bing er udviklet i overensstemmelse med Microsofts AI-principper, Microsofts ansvarlige AI-standard og i partnerskab med ansvarlige AI-eksperter i hele virksomheden, herunder Microsofts Office of Responsible AI, vores teknikerteams, Microsoft Research og Aether. Du kan få mere at vide om ansvarlig AI hos Microsoft her.  

I dette dokument beskriver vi vores tilgang til ansvarlig AI for Copilot i Bing. Forud for udgivelsen har vi indført avancerede metoder til at identificere, måle og mindske potentielle risici og misbrug af systemet og sikre dets fordele for brugerne. Da vi har fortsat med at udvikle Copilot i Bing siden den første udgivelse, har vi også fortsat med at lære og forbedre vores ansvarlige AI-indsats. Dette dokument opdateres jævnligt for at kommunikere vores udviklende processer og metoder.   

Vigtige vilkår  

Copilot i Bing er en AI-forbedret websøgningsoplevelse. Da den kører på en effektiv, ny teknologi, begynder vi med at definere nogle centrale begreber.  

Maskinlæringsmodeller, der hjælper med at sortere data i mærkede klasser eller kategorier af oplysninger. I Copilot i Bing er en måde, hvorpå vi bruger klassificeringer, at hjælpe med at registrere potentielt skadeligt indhold, der indsendes af brugere eller genereres af systemet, for at mindske genereringen af dette indhold og misbrug eller misbrug af systemet. 

Copilot i Bing er baseret på websøgeresultater, når brugerne søger oplysninger. Det betyder, at vi centrer svaret på en brugers forespørgsel eller anmodning om højt rangeret indhold fra internettet, og vi leverer links til websteder, så brugerne kan få mere at vide. Bing rangerer websøgningsindhold ved at vægte funktioner som relevans, kvalitet og troværdighed og friskhed. Vi beskriver disse begreber mere detaljeret i Sådan leverer Bing resultater Søg (se "Kvalitet og troværdighed" i "Sådan rangerer Bing Søg resultater").   

Vi betragter jordbaserede svar som svar fra Copilot i Bing, hvor sætninger understøttes af oplysninger i inputkilder, f.eks. websøgeresultater fra forespørgslen eller prompten, Bings videnbase af faktatjekkede oplysninger og for chatoplevelsen den seneste samtaleoversigt fra chatten. Ikke-grundede svar er dem, hvor en sætning ikke er baseret på disse inputkilder.  

Store sprogmodeller i denne sammenhæng er AI-modeller, der er trænet i store mængder tekstdata til at forudsige ord i sekvenser. LlMs er i stand til at udføre en række opgaver, f.eks tekstgenerering, opsummering, oversættelse, klassificering og meget mere.  

Metaprompt er et program, der tjener til at vejlede systemets adfærd. Dele af metaprompt hjælper med at justere systemets funktionsmåde efter Microsofts AI-principper og brugernes forventninger. Metaprompten kan f.eks. indeholde en linje, f.eks. "kommuniker på brugerens foretrukne sprog".  

En metode eller en kombination af metoder, der er udviklet til at reducere potentielle risici, der kan opstå ved brug af AI-drevne funktioner i Copilot i Bing.  

Tekst, tale, billeder og/eller andre aktiverede forespørgsler, som en bruger sender til Bing som input til modellen, der giver nye AI-drevne generative oplevelser i Bing. En bruger kan f.eks. angive følgende prompt:  

"Jeg planlægger en tur til vores jubilæum i september. Hvilke steder kan vi tage hen, som er inden for en 3-timers flyvning fra London Heathrow?”  

Den tekst, en bruger sender til Bing fra søgelinjen til websøgning. I dette dokument skelner vi en forespørgsel (til websøgning) fra en prompt (for AI-drevne generative oplevelser i Bing). En bruger kan f.eks. indtaste følgende forespørgsel for at søge på internettet:  

"rejsemål i nærheden af London Heathrow lufthavn"  

Teknikker, der bruges af eksperter til at vurdere et systems begrænsninger og sårbarheder og til at teste effektiviteten af planlagte afhjælpninger. Røde teamtests og stresstests bruges til at identificere potentielle risici og adskiller sig fra systematisk måling af risici.   

Den tekst, det billede, de diagrammer osv., som Copilot i Bing udsender som svar på en anmodning. Synonymer for "svar" omfatter "fuldførelse", "generation" og "svar". Bing kan f.eks. give følgende svar på den anmodning, vi brugte i definitionen af "prompt" ovenfor:   

"Tillykke med din jubilæum! Der er mange steder du kan gå, der er inden for en 3-timers flyvning fra London Heathrow. Ifølge en kilde, nogle af de weekend undslipper inden for tre timer med fly fra London er Billund, København, Reykjavik, og Stockholm 1, 2. En anden kilde tyder på nogle af de bedste steder at gå i Europa i septemberer, Firenze, og Lissabon 3, 4. Du kan også tjekke de direkte flyafgange fra London Heathrow til forskellige destinationer og se, hvad der appellerer til dig 5. Jeg håber, du har en vidunderlig tur!”  

Tiltænkt anvendelsesmuligheder og nye AI-oplevelser  

Copilot i Bings tilsigtede formål er at forbinde brugere med relevante søgeresultater, gennemgå resultater fra hele internettet for at finde og opsummere svar, som brugerne leder efter, hjælpe brugerne med at afgrænse deres forskning for at få svar med en chatoplevelse og skabe kreativitet ved at hjælpe brugerne med at oprette indhold. Copilot i Bings generative AI-oplevelser nedenfor understøtter målet om at være en AI-drevet copilot til internettet.  

Sammendrag. Når brugere sender en søgeforespørgsel på Copilot i Bing, behandler Bing-systemet forespørgslen, foretager en eller flere websøgninger og bruger de bedste websøgeresultater til at generere en oversigt over de oplysninger, der skal præsenteres for brugerne. Disse oversigter omfatter referencer, der kan hjælpe brugerne med at se og nemt få adgang til de søgeresultater, der bruges til at hjælpe med at grundlægge oversigten. Oversigter kan vises i højre side af siden med søgeresultater og i chatoplevelsen.  

Chatoplevelse. Ud over opsummering kan brugerne chatte med Copilot i Bing-systemet via tekst, billede eller stemmeinput, stille opfølgende spørgsmål for at tydeliggøre søgninger og finde nye oplysninger og sende anmodninger om at generere kreativt indhold. Referencer er også inkluderet i chatoplevelsen, når Copilot i Bing opsummerer søgeresultaterne i svaret.   

Generation af kreativt indhold. I både chatoplevelsen og på søgesiden kan brugerne oprette digte, vittigheder, historier, billeder og andet indhold med hjælp fra Copilot i Bing.  Billeder er oprettet af Designer (den tidligere Bing Image Creator), og brugerne kan få adgang til funktionen via Designer hjemmeside samt Copilot-siden. 

Hvordan fungerer Copilot i Bing?  

Med Copilot i Bing har vi udviklet en innovativ tilgang til at gøre websøgning mere avanceret. Når en bruger indtaster en prompt i Copilot i Bing, sendes prompten, den seneste samtaleoversigt, metaprompten og de bedste søgeresultater som input til LLM. Modellen genererer et svar ved hjælp af brugerens prompt og seneste samtaleoversigt for at kontekstualisere anmodningen, metaprompten til at justere svar i overensstemmelse med Microsoft AI-principper og brugernes forventninger og søgeresultaterne for at skabe grundlag for svar i eksisterende indhold med høj rangering fra internettet.   

Svar præsenteres for brugere i flere forskellige formater, f.eks. traditionelle links til webindhold, AI-genererede opsummeringer, billeder og chatsvar. Opsummeringer og chatsvar, der er afhængige af websøgeresultater, indeholder referencer og afsnittet "Få mere at vide" under svarene med links til søgeresultater, der blev brugt til at grundlægge svaret. Brugerne kan klikke på disse links for at få mere at vide om et emne og de oplysninger, der bruges til at skabe grundlaget for opsummeringen eller chatsvaret.    

I Copilot-oplevelsen kan brugerne udføre websøgninger via samtaler ved at føje kontekst til deres prompt og interagere med systemsvar for yderligere at angive deres søgeinteresser. En bruger kan f.eks. stille opfølgende spørgsmål, anmode om yderligere afklaring af oplysninger eller svare på systemet på en samtale måde. I chatoplevelsen kan brugerne også vælge et svar fra forudskrevne forslag, som vi kalder chatforslag. Disse knapper vises efter hvert svar fra Copilot og giver forslag til, hvordan du kan fortsætte samtalen i chatoplevelsen. Chatforslag vises også sammen med opsummeret indhold på siden med søgeresultater som et indgangspunkt for chatoplevelsen.  

Copilot i Bing giver også en bruger mulighed for at oprette historier, digte, sangtekster og billeder med hjælp fra Bing. Når Copilot i Bing registrerer brugerens hensigt om at generere kreativt indhold (f.eks. begynder prompten med "skriv mig en ..."), genererer systemet i de fleste tilfælde indhold, der svarer til brugerens prompt. Når Copilot i Bing registrerer brugerens hensigt om at generere et billede (f.eks. begynder prompten med "tegn mig en ..."), vil systemet i de fleste tilfælde generere et billede, der svarer til brugerens prompt. I Visuel Søg i chatoplevelsen kan brugerne med et billede, der er taget af brugerens kamera, uploadet fra brugerens enhed eller linket fra internettet, bede Copilot i Bing om at forstå konteksten, fortolke og besvare spørgsmål om billedet.  Brugere kan også uploade deres filer til Copilot for at fortolke, konvertere, behandle eller beregne oplysninger fra dem. I den Microsoft Designer oplevelse, som brugerne kan få adgang til via Copilot i Bing, kan brugerne ikke kun generere billeder ved hjælp af prompts, men også ændre størrelsen på eller ændre deres typografi eller foretage redigeringer, f.eks. sløring af baggrund eller gøre farver mere levende. 

Brugere med Microsoft-konti (MSA) har nu også mulighed for at abonnere på Copilot Pro, der giver en forbedret oplevelse, herunder hurtigere ydeevne, hurtigere oprettelse af AI-billeder og snart muligheden for at oprette dine helt egne Copilot GPT'er. Copilot Pro er i øjeblikket tilgængelig i begrænsede lande, og vi planlægger at gøre Copilot Pro tilgængelige på flere markeder snart.

I Copilot-oplevelsen kan brugerne få adgang til Copilot GPT'er. En Copilot GPT, som Designer GPT, er en brugerdefineret version af Microsoft Copilot på et emne, der er af særlig interesse for dig, f.eks fitness, rejser og madlavning, der kan hjælpe med at omdanne vage eller generelle ideer til mere specifikke prompter med output, herunder tekster og billeder. I Copilot kan brugere se tilgængelige Copilot GPT'er, og brugere med Copilot Pro-konti vil snart have adgang til Copilot GPT Builder, en funktion, der giver brugerne mulighed for at oprette og konfigurere en brugerdefineret Copilot GPT. De ansvarlige AI-afhjælpninger, der er nævnt ovenfor for Copilot i Bing, gælder for Copilot GPTs.

Hvis du vil vide mere om, hvordan Copilot Pro og Copilot GPTs fungerer, kan du besøge her.

Copilot i Bing bestræber sig på at levere forskelligartede og omfattende søgeresultater med sit engagement i fri og åben adgang til oplysninger. Samtidig omfatter vores produktkvalitetsindsats at arbejde på at undgå utilsigtet at promovere potentielt skadeligt indhold til brugerne. Du kan få flere oplysninger om, hvordan Bing rangerer indhold, herunder hvordan det definerer relevans og kvaliteten og troværdigheden af en webside, i "Bing Webmaster Guidelines".   Du kan finde flere oplysninger om Bings principper for indholdsmoderation i "Sådan leverer Bing søgeresultater".   

I Copilot i Windows-oplevelsen kan Copilot i Bing arbejde med Windows-operativsystemet for at levere Windows-specifikke færdigheder som f.eks. ændre brugerens tema eller baggrund og ændre indstillinger som lyd, Bluetooth og netværk. Disse oplevelser giver brugeren mulighed for at konfigurere sine indstillinger og forbedre sin brugeroplevelse ved hjælp af prompter for naturligt sprog til LLM. Programspecifikke funktioner kan også leveres fra tredjepartsprogram-plug-ins. Disse kan automatisere gentagne opgaver og opnå større brugereffektivitet. Da chatbeskeder nogle gange kan lave fejl, vises der relevante prompter til brugerbekræftelse, så brugeren er den endelige bruger af ændringer, der kan foretages. 

Identificering, måling og afhjælpning af risici  

Ligesom andre transformationsteknologier er udnyttelse af fordelene ved kunstig intelligens ikke risikofri, og en central del af Microsofts ansvarlige AI-program er designet til at identificere potentielle risici, måle deres tilbøjelighed til at opstå og opbygge afhjælpninger for at løse dem. Med udgangspunkt i vores AI-principper og vores ansvarlige AI-standard forsøgte vi at identificere, måle og mindske potentielle risici og misbrug af Copilot i Bing, samtidig med at vi sikrede den transformative og gavnlige anvendelse, som den nye oplevelse giver. I afsnittene nedenfor beskriver vi vores gentagende tilgang til at identificere, måle og mindske potentielle risici.   

På modelniveau begyndte vores arbejde med sonderende analyser af GPT-4 i sensommeren 2022. Dette omfattede udførelse af omfattende test af røde team i samarbejde med OpenAI. Denne test blev designet til at vurdere, hvordan den nyeste teknologi ville fungere, uden at der blev anvendt yderligere sikkerhedsforanstaltninger. Vores specifikke hensigt på nuværende tidspunkt var at producere skadelige reaktioner, afdække potentielle muligheder for misbrug og identificere kapaciteter og begrænsninger. Vores kombinerede læring på tværs af OpenAI og Microsoft bidrog til fremskridt inden for modeludvikling og informerede os hos Microsoft om vores forståelse af risici og bidrog til tidlige afhjælpningsstrategier for Copilot i Bing.  

Ud over røde teamtest på modelniveau udførte et tværfagligt team af eksperter adskillige runder af røde teamtest på applikationsniveau på Copilot i Bing AI oplevelser, før de blev offentligt tilgængelige i vores begrænsede udgivelseseksempel. Denne proces hjalp os med bedre at forstå, hvordan systemet kunne udnyttes af kontradiktoriske aktører og forbedre vores afhjælpninger. Ikke-adversarial stress-testers også omfattende evalueret nye Bing funktioner for mangler og sårbarheder. Efter udgivelsen er de nye AI-oplevelser i Bing integreret i Bing engineering-organisationens eksisterende produktionsmålings- og testinfrastruktur. Røde teamtestere fra forskellige regioner og baggrunde forsøger f.eks. kontinuerligt og systematisk at kompromittere systemet, og deres resultater bruges til at udvide de datasæt, som Bing bruger til at forbedre systemet.  

Røde teamtests og stresstest kan vise forekomster af specifikke risici, men i produktionsbrugere vil der være millioner af forskellige slags samtaler med Copilot i Bing. Desuden er samtaler flersigtede og kontekstafhængige, og det er en kompleks opgave at identificere skadeligt indhold i en samtale. For bedre at forstå og håndtere potentialet for risici i Copilot i Bing AI oplevelser har vi udviklet yderligere ansvarlige AI-målepunkter, der er specifikke for de nye AI-oplevelser til at måle potentielle risici som f.eks. jailbreaks, skadeligt indhold og ugrundet indhold. Vi har også aktiveret måling i skala gennem delvist automatiserede målepipelines. Hver gang produktet ændres, eksisterende afhjælpninger opdateres, eller der foreslås nye afhjælpninger, opdaterer vi vores målepipeline for at vurdere både produktets ydeevne og de ansvarlige AI-målepunkter.  

Som et illustrationseksempel indeholder den opdaterede delvist automatiserede målepipeline for skadeligt indhold to vigtige nyskabelser: samtalesimulering og automatiseret, menneskeligt bekræftet samtaleanmærkning. For det første byggede ansvarlige AI-eksperter skabeloner til at registrere strukturen og indholdet af samtaler, der kunne resultere i forskellige typer skadeligt indhold. Disse skabeloner blev derefter givet til en samtaleagent, der interagerede som hypotetisk bruger med Copilot i Bing og genererede simulerede samtaler. For at identificere, om disse simulerede samtaler indeholdt skadeligt indhold, har vi taget retningslinjer, der typisk bruges af ekspertsprogfolk, til at navngive data og ændret dem til brug af GPT-4 til at navngive samtaler i stor skala, hvilket finjusterer retningslinjerne, indtil der var betydelig enighed mellem modelmærkerede samtaler og samtaler, der er mærket med mennesker. Endelig brugte vi de modelmærkerede samtaler til at beregne en ansvarlig AI-metrik, der registrerer effektiviteten af Copilot i Bing til afhjælpning af skadeligt indhold.   

Vores målepipeline giver os mulighed for hurtigt at foretage målinger for potentielle risici i stor skala. Efterhånden som vi identificerer nye problemer gennem eksempelperioden og løbende røde teamtests, fortsætter vi med at udvide målesættene for at vurdere yderligere risici.  

Da vi identificerede potentielle risici og misbrug gennem processer som røde teamtest og stresstest og målte dem med de innovative metoder, der er beskrevet ovenfor, udviklede vi yderligere afhjælpninger til dem, der bruges til traditionel søgning. Nedenfor beskriver vi nogle af disse afhjælpninger. Vi fortsætter med at overvåge Copilot i Bing AI oplevelser for at forbedre produktets ydeevne og afhjælpninger.  

Faseinddelt udgivelse, løbende evaluering. Vi er forpligtet til at lære og forbedre vores ansvarlige AI-tilgang løbende i takt med, at vores teknologier og brugeradfærd udvikler sig. Vores trinvise udgivelsesstrategi har været en central del af, hvordan vi flytter vores teknologi sikkert fra laboratorierne til verden, og vi er forpligtet til en bevidst og gennemtænkt proces for at sikre fordelene ved Copilot i Bing. Begrænsning af antallet af personer med adgang i eksempelperioden har gjort det muligt for os at finde ud af, hvordan folk bruger Copilot i Bing, herunder hvordan folk kan misbruge det, så vi kan forsøge at afhjælpe nye problemer, før en bredere udgivelse. Vi kræver f.eks., at brugerne skal godkende ved hjælp af deres Microsoft-konto, før de får adgang til den fulde nye Bing-oplevelse. Ikke-godkendte brugere kan kun få adgang til et begrænset eksempel på oplevelsen. Disse trin fraråder misbrug og hjælper os med (hvis det er nødvendigt) at træffe passende foranstaltninger som reaktion på overtrædelser af adfærdskodeksen.  Vi foretager dagligt ændringer i Copilot i Bing for at forbedre produktets ydeevne, forbedre eksisterende afhjælpninger og implementere nye afhjælpninger som reaktion på vores viden i eksempelperioden.  

Grundforbindelse i søgeresultater. Som nævnt ovenfor er Copilot i Bing designet til at give svar, der understøttes af oplysningerne i websøgeresultater, når brugerne søger oplysninger. Systemet leveres f.eks. med tekst fra de bedste søgeresultater og instruktioner via metaprompten for at grunde dets svar. Ved opsummering af indhold fra internettet kan Copilot i Bing dog medtage oplysninger i sit svar, der ikke findes i inputkilderne. Med andre ord kan det give ugrundede resultater. Vores tidlige evalueringer har vist, at ugrundede resultater i chat kan være mere udbredte for visse typer prompter eller emner end andre, f.eks. ved at bede om matematiske beregninger, finansielle eller markedsoplysninger (f.eks. virksomhedens indtjening, data om aktieresultater) og oplysninger som f.eks. nøjagtige datoer for begivenheder eller bestemte priser på varer. Brugerne bør altid være forsigtige og bruge deres bedste dømmekraft, når de får vist opsummerede søgeresultater, uanset om det er på siden med søgeresultater eller i chatoplevelsen. Vi har truffet flere foranstaltninger for at mindske risikoen for, at brugerne kan stole for meget på ugrundet genereret indhold i opsummeringsscenarier og chatoplevelser. Svar i Copilot i Bing, der er baseret på søgeresultater, indeholder f.eks. referencer til kildewebstederne, så brugerne kan bekræfte svaret og få mere at vide. Brugerne får også udtrykkelig meddelelse om, at de interagerer med et AI-system og rådes til at kontrollere kildematerialet til webresultatet for at hjælpe dem med at bruge deres bedste dømmekraft.  

AI-baserede klassificeringer og metaprompting for at mindske potentielle risici eller misbrug. Brugen af chatbeskeder kan medføre problematisk indhold, der kan føre til risici eller misbrug. Eksempler kan omfatte output relateret til selvskade, vold, grafisk indhold, intellektuel ejendomsret, unøjagtige oplysninger, hadefuld tale eller tekst, der kan relatere til ulovlige aktiviteter. Klassificeringer og metaprompting er to eksempler på afhjælpninger, der er blevet implementeret i Copilot i Bing for at reducere risikoen for disse typer indhold. Klassificering klassificerer tekst for at markere forskellige typer potentielt skadeligt indhold i søgeforespørgsler, chatmeddelelser eller genererede svar. Bing bruger AI-baserede klassificeringer og indholdsfiltre, som gælder for alle søgeresultater og relevante funktioner. vi har designet yderligere promptklasse- og indholdsfiltre specifikt for at håndtere mulige risici, som Copiloten i Bing-funktionerne udgør. Flag medfører potentielle afhjælpninger, f.eks. returnering af genereret indhold til brugeren, omdirigering af brugeren til et andet emne eller omdirigering af brugeren til traditionel søgning. Metaprompting indebærer at give instruktioner til modellen for at vejlede dens funktionsmåde, herunder så systemet fungerer i overensstemmelse med Microsofts AI-principper og brugernes forventninger. Metaprompten kan f.eks. indeholde en linje, f.eks. "kommuniker på brugerens foretrukne sprog".   

Beskyttelse af personlige oplysninger i Visuelle Søg i Copilot i Bing. Når brugerne uploader et billede som en del af deres chatprompt, anvender Copilot i Bing ansigtssløringsteknologi, før de sender billedet til AI-modellen. Ansigtssløring bruges til at beskytte enkeltpersoners personlige oplysninger i billedet. Den ansigtssløring teknologi er afhængig af kontekst spor til at afgøre, hvor at sløre og vil forsøge at sløre alle ansigter. Når ansigterne er slørede, kan AI-modellen sammenligne det indsatte billede med billederne af offentligt tilgængelige billeder på internettet. Som et resultat, for eksempel, Copilot i Bing kan være i stand til at identificere en berømt basketballspiller fra et billede af den pågældende spiller på en basketballbane ved at oprette en numerisk repræsentation, der afspejler spillerens trøjenummer, jersey farve, tilstedeværelsen af en basketball hoop, osv. Copilot i Bing gemmer ikke numeriske repræsentationer af personer fra uploadede billeder og deler dem ikke med tredjeparter. Copilot i Bing bruger numeriske repræsentationer af de billeder, som brugerne kun uploader med det formål at svare på brugernes prompter, hvorefter de slettes inden for 30 dage efter chatten slutter.    

Hvis brugeren beder Copilot i Bing om oplysninger om et uploadet billede, kan chatsvar afspejle effekten af ansigtssløring på modellens mulighed for at give oplysninger om det uploadede billede. Copilot i Bing kan f.eks. beskrive, at en person har et sløret ansigt.    

Begrænsning af samtaleafvige. I eksempelperioden lærte vi, at meget lange chatsessioner kan resultere i svar, der er gentagne, ikke brugbare eller i strid med Copilot i Bings tilsigtede tone. For at håndtere denne samtaleforskydning har vi begrænset antallet af sving (udvekslinger, der indeholder både et brugerspørgsmål og et svar fra Copilot i Bing) pr. chatsession. Vi fortsætter med at evaluere yderligere metoder for at afhjælpe dette problem.  

Hurtig berigelse. I nogle tilfælde kan en brugers prompt være tvetydig. Når dette sker, kan Copilot i Bing bruge LLM til at opbygge flere detaljer i prompten for at sikre, at brugerne får det svar, de søger. En sådan hurtig berigelse er ikke afhængig af kendskab til brugeren eller dennes tidligere søgninger, men i stedet af AI-modellen. Disse reviderede forespørgsler vil være synlige i brugerens chathistorik og kan ligesom andre søgninger slettes ved hjælp af kontrolelementer i produktet.  

Brugercentreret design og brugeroplevelsesindgreb. Brugercentreret design og brugeroplevelser er et vigtigt aspekt af Microsofts tilgang til ansvarlig AI. Målet er at rodfæste produktdesign i brugernes behov og forventninger. Da brugere interagerer med Copilot i Bing for første gang, tilbyder vi forskellige berøringspunkter, der er designet til at hjælpe dem med at forstå systemets funktioner, afsløre over for dem, at Copilot i Bing er drevet af AI, og kommunikere begrænsninger. Oplevelsen er designet på denne måde for at hjælpe brugerne med at få mest muligt ud af Copilot i Bing og minimere risikoen for overreparering. Elementer i oplevelsen hjælper også brugerne med bedre at forstå Copilot i Bing og deres interaktioner med den. Disse omfatter chatforslag, der er specifikke for ansvarlig AI (f.eks. hvordan bruger Bing AI? Hvorfor svarer Copilot i Bing ikke på nogle emner?), forklaringer på begrænsninger, måder, hvorpå brugerne kan få mere at vide om, hvordan systemet fungerer og rapporterer feedback, og let navigerbare referencer, der vises i svar, for at vise brugerne resultater og sider, hvor svarene er baseret.  

AI-afsløring. Copilot i Bing indeholder flere berøringspunkter til meningsfuld offentliggørelse af AI, hvor brugerne får besked om, at de interagerer med et AI-system, samt muligheder for at få mere at vide om Copilot i Bing. Hvis du giver brugerne denne viden, kan det hjælpe dem med at undgå at stole for meget på kunstig intelligens og få mere at vide om systemets styrker og begrænsninger.  

Medie provenans.Microsoft Designer har aktiveret funktionen "Indholdslegitimationsoplysninger", som bruger kryptografiske metoder til at markere kilden eller "proveniensen" for alle AI-genererede billeder, der er oprettet på Designer. Den usynlige funktion til digitalt vandmærke viser kilde, klokkeslæt og dato for den oprindelige oprettelse, og disse oplysninger kan ikke ændres. Teknologien anvender standarder, der er fastsat af Coalition for Content and Authenticity (C2PA) for at tilføje et ekstra lag af tillid og gennemsigtighed til AI-genererede billeder. Microsoft er medstifter af C2PA og har bidraget med kerneteknologien til digitalt indhold. 

Vilkår for anvendelse og adfærdskodeks. Denne ressource styrer brugen af Copilot i Bing. Brugerne skal overholde vilkår for anvendelse og adfærdskodeks, som blandt andet informerer dem om tilladt og uigennemsigelig anvendelse og konsekvenserne af at overtræde vilkår. Vilkår for anvendelse giver også yderligere oplysninger til brugerne og fungerer som en praktisk reference for brugerne til at lære om Copilot i Bing.   

Operationer og hurtig reaktion. Vi bruger også Copilot i Bings løbende overvågnings- og driftsprocesser til at håndtere, hvornår Copilot i Bing modtager signaler eller modtager en rapport, der angiver mulig misbrug eller overtrædelser af vilkår for anvendelse eller adfærdskodeks.  

Feedback, overvågning og tilsyn. Copilot-oplevelsen i Bing bygger på eksisterende værktøjer, der giver brugerne mulighed for at indsende feedback og rapportere bekymringer, som gennemgås af Microsofts driftsteams. Bings driftsprocesser er også udvidet for at tage højde for funktionerne i Copilot i Bing-oplevelsen, f.eks. ved at opdatere siden Rapportér en bekymring , så den omfatter de nye typer indhold, som brugerne genererer ved hjælp af modellen.   

Vores tilgang til at identificere, måle og mindske risici vil fortsat udvikle sig, efterhånden som vi får mere at vide, og vi foretager allerede forbedringer baseret på feedback, der er indsamlet i eksempelperioden.     

Automatisk registrering af indhold. Når brugerne uploader billeder som en del af deres chatprompt, installerer Copilot i Bing værktøjer til at registrere børns seksuelle udnyttelse og misbrug (CSEAI), især PhotoDNA hash-matching-teknologi. Microsoft har udviklet PhotoDNA for at finde dubletter af kendte CSEAI. Microsoft rapporterer alle synlige CSEAI til National Center for Missing and Exploited Children (NCMEC), som krævet af amerikansk lovgivning. Når brugere uploader filer for at analysere eller behandle, implementerer Copilot automatisk scanning for at registrere indhold, der kan føre til risici eller misbrug, f.eks. tekst, der kan relatere til ulovlige aktiviteter eller skadelig kode.

Beskyttelse af personlige oplysninger  

Microsofts mangeårige overbevisning om, at beskyttelse af personlige oplysninger er en grundlæggende menneskeret, har informeret alle faser af Microsofts udvikling og implementering af Copilot i Bing-oplevelsen. Vores forpligtelser til at beskytte alle brugeres personlige oplysninger, herunder ved at give enkeltpersoner gennemsigtighed og kontrol over deres data og integrere beskyttelse af personlige oplysninger ved hjælp af dataminiimering og formålsbegrænsning, er grundlæggende for Copilot i Bing. Efterhånden som vi udvikler vores tilgang til at levere Copilot i Bings generative AI-oplevelser, vil vi løbende undersøge, hvordan vi bedst beskytter privatlivets fred. Dette dokument opdateres, som vi gør det. Du kan få flere oplysninger om, hvordan Microsoft beskytter vores brugeres personlige oplysninger, i Microsofts erklæring om beskyttelse af personlige oplysninger.  

I Copilot i Windows-oplevelsen kan Windows-færdigheder som en del af deres funktionalitet dele brugeroplysninger med chatsamtalen. Dette er underlagt brugergodkendelse, og der vises instruktioner i brugergrænsefladen for at bekræfte brugerens hensigter, før brugeroplysningerne deles med chatsamtalen.

Microsoft overvejer fortsat børns og unges behov som en del af risikovurderingerne af nye generative AI-funktioner i Copilot i Bing. Alle Microsoft-børnekonti, der identificerer brugeren som under 13 år eller som angivet i henhold til lokal lovgivning, kan ikke logge på for at få adgang til den fulde nye Bing-oplevelse.   

Som beskrevet ovenfor har vi for alle brugere implementeret sikkerhedsforanstaltninger, der afhjælper potentielt skadeligt indhold. I Copilot i Bing angives resultaterne som i Bing SafeSearchs strengtilstand, som har det højeste sikkerhedsniveau i den primære Bing-søgning og dermed forhindrer brugere, herunder teenagerbrugere, i at blive udsat for potentielt skadeligt indhold. Ud over de oplysninger, vi har givet i dette dokument og i vores ofte stillede spørgsmål om chatfunktioner, er der flere oplysninger om, hvordan Copilot i Bing fungerer for at undgå at svare med uventet stødende indhold i søgeresultater, her.  

Microsoft har forpligtet sig til ikke at levere tilpassede reklamer baseret på onlineadfærd til børn, hvis fødselsdato på deres Microsoft-konto identificerer dem som værende under 18 år. Denne vigtige beskyttelse vil omfatte reklamer i Copilot i Bing-funktioner. Brugerne kan få vist kontekstafhængige reklamer baseret på den forespørgsel eller prompt, der bruges til at interagere med Bing.  

For at udnytte det transformative potentiale i generativ kunstig intelligens skal vi opbygge tillid til teknologien ved at give enkeltpersoner mulighed for at forstå, hvordan deres data bruges, og give dem meningsfulde valg og kontrol over deres data. Copilot i Bing er designet til at prioritere det menneskelige agentur ved at give oplysninger om, hvordan produktet fungerer samt dets begrænsninger, og ved at udvide vores robuste forbrugervalg og -kontroller til Copilot i Bing-funktioner.   

Microsofts erklæring om beskyttelse af personlige oplysninger indeholder oplysninger om vores gennemsigtige praksis for beskyttelse af personlige oplysninger for at beskytte vores kunder, og den indeholder oplysninger om de kontrolelementer, der giver vores brugere mulighed for at få vist og administrere deres personlige data. For at sikre, at brugerne har de oplysninger, de skal bruge, når de interagerer med Bings nye samtalefunktioner, informerer afsløringer i produktet brugerne om, at de bruger et ai-produkt, og vi giver links til yderligere ofte stillede spørgsmål og forklaringer om, hvordan disse funktioner fungerer. Microsoft vil fortsat lytte til brugerfeedback og tilføje yderligere detaljer om Bings samtalefunktioner, alt efter hvad der er relevant for at understøtte forståelsen af, hvordan produktet fungerer.   

Microsoft giver også sine brugere robuste værktøjer til at udøve deres rettigheder over deres personlige data. For data, der indsamles af Copilot i Bing, herunder via brugerforespørgsler og prompter, giver Microsoft-dashboardet til beskyttelse af personlige oplysninger godkendte (logget på) brugere med værktøjer til at udøve deres registrerede rettigheder, herunder ved at give brugerne mulighed for at få vist, eksportere og slette gemt samtaleoversigt. Microsoft fortsætter med at give feedback om, hvordan de vil administrere deres nye Bing-oplevelse, herunder via brug af kontekstafhængige datastyringsoplevelser.   

Copilot i Bing imødekommer også anmodninger i henhold til den europæiske ret til at blive glemt efter den proces, som Microsoft har udviklet og tilpasset til Bings traditionelle søgefunktionalitet. Alle brugere kan rapportere bekymringer om genereret indhold og svar her, og vores europæiske brugere kan bruge denne formular til at sende anmodninger om at blokere søgeresultater i Europa under retten til at blive glemt.   

Copilot i Bing vil imødekomme brugernes valg om beskyttelse af personlige oplysninger, herunder dem, der tidligere er foretaget i Bing, f.eks. samtykke til indsamling og brug af data, der anmodes om via cookiebannere og kontrolelementer, der er tilgængelige i Microsoft Dashboard til beskyttelse af personlige oplysninger. For at gøre det muligt for brugerne selv at træffe velovervejede beslutninger har vi brugt vores interne gennemgangsproces til nøje at undersøge, hvordan valgmulighederne præsenteres for brugerne. 

Ud over de kontrolelementer, der er tilgængelige via Microsoft Dashboard til beskyttelse af personlige oplysninger, som giver brugerne mulighed for at få vist, eksportere og slette deres søgehistorik, herunder komponenter i deres chatoversigt, har godkendte brugere, der har aktiveret funktionen Chatoversigt i produktet, mulighed for at få vist, få adgang til og downloade chatoversigten via kontrolelementer i produktet. Brugere kan når som helst rydde bestemte chats fra chatoversigten eller slå funktionen Chatoversigt fra ved at besøge siden Bing-indstillinger. Brugerne kan også vælge, om de vil tillade tilpasning for at få adgang til en mere skræddersyet oplevelse med tilpassede svar. Brugere kan til enhver tid tilvælge og fravælge tilpasning i Chatindstillinger på siden Bing-indstillinger.  Hvis du rydder bestemte chats fra chatoversigten, kan de ikke bruges til personlige indstillinger.  
 
Du kan få flere oplysninger om Chathistorik og tilpasning til brugerne i Copilot i Ofte stillede spørgsmål om Bing. 

Copilot i Bing blev bygget med tanke på beskyttelse af personlige oplysninger, så personlige data indsamles og kun bruges efter behov og ikke opbevares længere end nødvendigt. Som nævnt ovenfor installerer Visual Søg i Copilot i Bing-funktionen en mekanisme, der slører ansigter i billederne på tidspunktet for upload af brugere, så ansigtsbilleder ikke behandles eller gemmes yderligere. Du kan finde flere oplysninger om de personlige data, som Bing indsamler, hvordan de bruges, og hvordan de gemmes og slettes, i Microsofts erklæring om beskyttelse af personlige oplysninger, som også indeholder oplysninger om Bings nye chatfunktioner.   

Copilot i Bing har politikker for dataopbevaring og sletning for at sikre, at personlige data, der indsamles via Bings chatfunktioner, kun opbevares, så længe det er nødvendigt.   

Vi vil fortsat lære og udvikle vores tilgang til at levere Copilot i Bing, og som vi gør det, vil vi fortsat arbejde på tværs af discipliner for at tilpasse vores AI-innovation til menneskelige værdier og grundlæggende rettigheder, herunder beskyttelse af unge brugere og beskyttelse af personlige oplysninger.   

Copilot med kommerciel databeskyttelse 

Copilot med kommerciel databeskyttelse, tidligere kendt som Bing Chat Enterprise ("BCE"), blev udgivet af Microsoft i en gratis offentlig prøveversion i juli 2023 som et gratis tilføjelsesprogram til visse M365-kunder. Copilot med kommerciel databeskyttelse er en ai-forbedret websøgningsoplevelse for virksomhedens slutbrugere. 

Som med Copilot i Bing sendes prompten, den øjeblikkelige samtale, de øverste søgeresultater og metaprompten som input til LLM, når en Copilot med kommerciel databeskyttelse indtaster en prompt i grænsefladen. Modellen genererer et svar ved hjælp af prompten og den øjeblikkelige samtaleoversigt for at kontekstualisere anmodningen, metaprompten til at justere svar efter Microsoft AI-principper og brugernes forventninger og søgeresultaterne for at finde svar i eksisterende indhold med høj rangering fra internettet. Dette fungerer på samme måde som Copilot i Bing som beskrevet ovenfor i dette dokument, med undtagelse af, at Copilot med kommerciel databeskyttelse kun afhænger af øjeblikkelig samtaleoversigt (ikke den seneste samtalehistorik), da gemt chathistorik ikke er en funktion, der understøttes i øjeblikket. Designer og visuelle Søg er nu tilgængelige i denne version. 

Ligesom andre transformationsteknologier er udnyttelse af fordelene ved kunstig intelligens ikke risikofri, og en central del af Microsofts ansvarlige AI-program er designet til at identificere potentielle risici, måle deres tilbøjelighed til at opstå og opbygge afhjælpninger for at løse dem. Igen gælder ovenstående beskrivelse af Microsofts bestræbelser på at identificere, måle og mindske potentielle risici for Copilot i Bing også for denne version med nogle præciseringer om afhjælpninger, der er beskrevet nedenfor: 

Faseinddelt udgivelse, løbende evaluering. Ligesom med Copilot Bing har vi for Copilot med kommerciel databeskyttelse også valgt en trinvis udgivelsesmetode. Den 18. juli 2023 blev Copilot med kommerciel databeskyttelse tilgængelig som en gratis forhåndsvisning for berettigede virksomhedskunder med specifikke M365-konti til at aktivere for deres virksomheds slutbrugere. Tredive (30) dage efter anmeldelse af berettigede virksomhedskunder blev Copilot med kommerciel databeskyttelse "standard slået til" for de samme kunder. Copilot med kommerciel databeskyttelse er også siden blevet tilgængelig for specifikke uddannelsesstab M365-konti. Copilot med kommerciel databeskyttelse blev generelt tilgængelig for visse virksomhedskunder den 1. december 2023. I fremtiden planlægger vi at udvide adgangen til Copilot med kommerciel databeskyttelse til flere Microsoft Entra ID brugere.

Vilkår for anvendelse og adfærdskodeks. Slutbrugere af Copilot med kommerciel databeskyttelse skal overholde slutbrugernes vilkår for anvendelse. Disse vilkår for anvendelse informerer slutbrugerne om tilladt og utilladelig brug og konsekvenserne af at overtræde vilkår.  

Operationer og hurtig reaktion. Vi bruger også Copilot i Bings løbende overvågnings- og driftsprocesser til at håndtere, hvornår Copilot med kommerciel databeskyttelse modtager signaler eller modtager en rapport, der angiver mulig misbrug eller overtrædelser af slutbrugerens vilkår for anvendelse

Feedback, overvågning og tilsyn. Copilot med kommerciel databeskyttelse bruger det samme værktøj som Copilot i Bing til at sende feedback og rapportere bekymringer, som gennemgås af Microsofts driftsteams. Copilot i Bings driftsprocesser er også udvidet for at tage højde for funktionerne i Copilot med kommercielle databeskyttelsesoplevelser, f.eks. ved at opdatere siden Rapportér en bekymring for at inkludere de nye typer indhold, som brugerne genererer ved hjælp af modellen.  

For at sikre, at slutbrugerne har de oplysninger, de skal bruge, når de interagerer med Copilot med kommerciel databeskyttelse, er der produktdokumentation tilgængelig nederst i dette dokument, herunder siderne Ofte stillede spørgsmål og Få mere at vide. 

Prompter og svar, der genereres af slutbrugere i Copilot med kommerciel databeskyttelse, behandles og gemmes i overensstemmelse med virksomhedens datahåndteringsstandarder. Copilot med kommercielle databeskyttelsestilbud er i øjeblikket kun tilgængeligt for virksomhedskunder og deres godkendte voksne slutbrugere, og derfor forventer vi ikke, at børn eller unge bliver slutbrugere af Copilot med kommerciel databeskyttelse på nuværende tidspunkt. Desuden leverer Copilot med kommerciel databeskyttelse ikke nogen adfærdsrettet annoncering til slutbrugere. I stedet er reklamer, der vises, kun kontekstafhængigt relevante reklamer.  

Få mere at vide

Dette dokument er en del af en bredere indsats hos Microsoft for at omsætte vores AI-principper til praksis. Du kan få mere at vide under:

Microsofts tilgang til ansvarlig AI

Microsofts ansvarlige AI-standard

Microsofts ansvarlige ai-ressourcer  

Microsoft Azure Learning-kurser om ansvarlig AI  

Om dette dokument  

© 2023 Microsoft. Alle rettigheder forbeholdes. Dette dokument leveres "som det er og forefindes" og kun til orientering. Oplysningerne og de meninger, der gives udtryk for i dette dokument, herunder URL-adresser og andre henvisninger til websteder på internettet, kan ændres uden foregående varsel. Du bærer risikoen ved at bruge den. Nogle eksempler er kun til illustration og er fiktive. Ingen reel tilknytning er tiltænkt eller udledes.  

Har du brug for mere hjælp?

Vil du have flere indstillinger?

Udforsk abonnementsfordele, gennemse kurser, få mere at vide om, hvordan du sikrer din enhed og meget mere.

Communities hjælper dig med at stille og besvare spørgsmål, give feedback og høre fra eksperter med omfattende viden.

Var disse oplysninger nyttige?

Hvor tilfreds er du med kvaliteten af sproget?
Hvad påvirkede din oplevelse?
Når du trykker på Send, bliver din feedback brugt til at forbedre Microsoft-produkter og -tjenester. Din it-administrator kan indsamle disse data. Erklæring om beskyttelse af personlige oplysninger.

Tak for din feedback!

×