Logga in med Microsoft
Logga in eller skapa ett konto.
Hej,
Välj ett annat konto.
Du har flera konton
Välj det konto som du vill logga in med.

Senast uppdaterad: februari 2024

Grunderna i Copilot i Bing   

Inledning  

I februari 2023 lanserade Microsoft nya Bing, en AI-förbättrad webbsökningsupplevelse. Det stöder användare genom att sammanfatta sökresultat på webben och tillhandahålla en chattupplevelse. Användare kan också generera kreativt innehåll, till exempel dikter, skämt, berättelser och bilder med Bing Bildskapare. Den nya AI-förbättrade Bing körs på en mängd avancerade tekniker från Microsoft och OpenAI, inklusive GPT-4, en banbrytande stor språkmodell (LLM) och DALL-E, en djupinlärningsmodell för att generera digitala bilder från beskrivningar av naturligt språk, båda från OpenAI. Vi arbetade med båda modellerna i månader före lanseringen för att utveckla en anpassad uppsättning funktioner och tekniker för att ansluta till denna banbrytande AI-teknik och webbsökning i nya Bing.  I november 2023 bytte Microsoft namn på nya Bing till Copilot i Bing.

På Microsoft tar vi vårt engagemang för ansvarsfull AI på allvar. Copilot in Bing-upplevelsen har utvecklats i linje med Microsofts AI-principer, Microsofts Responsible AI Standard, och i samarbete med ansvarsfulla AI-experter över hela företaget, inklusive Microsofts Office of Responsible AI, våra teknikteam, Microsoft Research och Aether. Du kan läsa mer om ansvarsfull AI på Microsoft här.  

I det här dokumentet beskriver vi vår inställning till ansvarig AI för Copilot i Bing. Inför lanseringen antog vi toppmoderna metoder för att identifiera, mäta och minimera potentiella risker och missbruk av systemet och för att säkra dess fördelar för användarna. I takt med att vi har fortsatt att utveckla Copilot i Bing sedan vi först släpptes har vi också fortsatt att lära oss och förbättra våra ansvarsfulla AI-insatser. Det här dokumentet uppdateras regelbundet för att kommunicera våra processer och metoder som utvecklas.   

Viktiga termer  

Copilot i Bing är en AI-förbättrad webbsökningsupplevelse. Eftersom den körs på en kraftfull, ny teknik börjar vi med att definiera några viktiga termer.  

Maskininlärningsmodeller som hjälper till att sortera data i etiketterade klasser eller kategorier med information. I Copilot i Bing är ett sätt som vi använder klassificerare att hjälpa till att upptäcka potentiellt skadligt innehåll som skickas av användare eller genereras av systemet för att minska genereringen av innehållet och missbruk eller missbruk av systemet. 

Copilot i Bing baseras på webbsökresultat när användare söker information. Det innebär att vi centrerar svaret på en användares fråga eller uppmaning om högt rankningsinnehåll från webben, och vi tillhandahåller länkar till webbplatser så att användarna kan läsa mer. Bing rangordnar webbsökningsinnehåll genom att vikta funktioner som relevans, kvalitet och trovärdighet och friskhet. Vi beskriver dessa begrepp mer detaljerat i Hur Bing ger Search resultat (se "Kvalitet och trovärdighet" i "Hur Bing rangordnar Search resultat").   

Vi anser att grundsvar är svar från Copilot i Bing där uttalanden stöds av information som finns i indatakällor, till exempel webbsökresultat från frågan eller uppmaningen, Bings kunskapsbas med faktakontrollerad information och, för chattupplevelsen, den senaste konversationshistoriken från chatten. Ogrundade svar är de svar där ett uttryck inte är grundat i dessa indatakällor.  

Stora språkmodeller (LLMs) är i detta sammanhang AI-modeller som är utbildade i stora mängder textdata för att förutsäga ord i sekvenser. LLMs kan utföra en mängd olika uppgifter, till exempel textgenerering, sammanfattning, översättning, klassificering och mycket mer.  

Metaprompten är ett program som hjälper systemets beteende. Delar av metaprompten bidrar till att anpassa systembeteendet till Microsoft AI-principer och användarnas förväntningar. Metaprompten kan till exempel innehålla en rad som "kommunicerar på användarens valspråk".  

En metod eller kombination av metoder som syftar till att minska potentiella risker som kan uppstå vid användning av AI-drivna funktioner i Copilot i Bing.  

Text, röst, bilder och/eller andra aktiverade frågor som en användare skickar till Bing som indata till modellen som driver nya AI-drivna generativa upplevelser i Bing. En användare kan till exempel ange följande uppmaning:  

" Jag planerar en resa till vår årsdag i september. Vilka är några platser vi kan åka till som ligger inom en 3-timmars flygning från London Heathrow?”  

Texten som en användare skickar till Bing från sökfältet för webbsökning. I det här dokumentet skiljer vi en fråga (för webbsökning) från en ledtext (för AI-drivna generativa upplevelser i Bing). En användare kan till exempel ange följande fråga för att söka på webben:  

"Resmål nära London Heathrow flygplats"  

Tekniker som används av experter för att bedöma begränsningar och sårbarheter i ett system och för att testa effektiviteten hos planerade lösningar. Röda teamtester och stresstester används för att identifiera potentiella risker och skiljer sig från systematiska mätningar av risker.   

Texten, bilden, diagrammen m.m. som Copilot i Bing matar ut som svar på en uppmaning. Synonymer för "svar" omfattar "slutförande", "generering" och "svar". Bing kan till exempel ge följande svar på uppmaningen som vi använde i definitionen av "fråga" ovan:   

"Grattis till din årsdag! Det finns många platser du kan åka till som ligger inom 3 timmars flygresa från London Heathrow. Enligt en källa är några av helgens rymningar inom tre timmar med flyg från London Bilbao, Köpenhamn, Reykjavik och Stockholm 1, 2. En annan källa föreslår att några av de bästa platserna att åka till i Europa i september är Krakow, Florens och Lissabon 3, 4. Du kan också kontrollera direktflyg från London Heathrow till olika destinationer och se vad som tilltalar dig 5. Jag hoppas att du har en underbar resa!”  

Avsedda användningsområden och nya AI-upplevelser  

Copilot i Bings avsedda användning är att ansluta användare till relevanta sökresultat, granska resultat från hela webben för att hitta och sammanfatta svar som användare letar efter, hjälpa användare att förfina sin forskning för att få svar med en chattupplevelse och skapa kreativitet genom att hjälpa användare att skapa innehåll. Copilot i Bings generativa AI-upplevelser understöder målet att vara en AI-driven copilot för webben.  

Sammanfattas. När användare skickar en sökfråga på Copilot i Bing bearbetar Bing-systemet frågan, genomför en eller flera webbsökningar och använder de bästa webbsökresultaten för att generera en sammanfattning av informationen som ska presenteras för användarna. Dessa sammanfattningar innehåller referenser som hjälper användare att se och enkelt komma åt sökresultaten som används för att grunda sammanfattningen. Sammanfattningar kan visas till höger på sökresultatsidan och i chattfunktionen.  

Chattupplevelse. Förutom att summera kan användare chatta med Copilot i Bing-systemet via text, bild eller röstinmatning, ställa uppföljningsfrågor för att förtydliga sökningar och hitta ny information och skicka uppmaningar för att generera kreativt innehåll. Referenser ingår också i chattupplevelsen när Copilot i Bing sammanfattar sökresultat i svaret.   

Generering av kreativt innehåll. I både chattupplevelsen och på söksidan kan användare skapa dikter, skämt, berättelser, bilder och annat innehåll med hjälp av Copilot i Bing.  Bilder skapas av Designer (den tidigare Bing-Bildskapare) och användare kan komma åt funktionen via Designer startsida samt Copilot-sidan. 

Hur fungerar Copilot i Bing?  

Med Copilot i Bing har vi utvecklat en innovativ metod för att få toppmoderna LLMs att söka på webben. När en användare anger en uppmaning i Copilot i Bing skickas ledtexten, den senaste konversationshistoriken, metaprompten och de bästa sökresultaten som indata till LLM. Modellen genererar ett svar med hjälp av användarens snabba och senaste konversationshistorik för att kontextualisera begäran, metaprompten för att justera svar med Microsoft AI-principer och användarnas förväntningar och sökresultaten för att grunda svar i befintligt, högt rankat innehåll från webben.   

Svaren presenteras för användare i flera olika format, till exempel traditionella länkar till webbinnehåll, AI-genererade sammanfattningar, bilder och chattsvar. Sammanfattningar och chattsvar som är beroende av sökresultat på webben innehåller referenser och avsnittet "Läs mer" under svaren, med länkar till sökresultat som användes för att grunda svaret. Användarna kan klicka på de här länkarna om du vill veta mer om ett ämne och den information som används för att grunda sammanfattnings- eller chattsvaret.    

I Copilot-upplevelsen kan användare utföra webbsökningar konversationsvis genom att lägga till kontext i sin uppmaning och interagera med systemsvaren för att ytterligare ange sina sökintressen. En användare kan till exempel ställa uppföljningsfrågor, begära ytterligare förtydligande information eller svara på systemet på ett konversationssätt. I chattfunktionen kan användare också välja ett svar från förskrivna förslag, som vi kallar chattförslag. De här knapparna visas efter varje svar från Copilot och ger förslag på uppmaningar om att fortsätta konversationen i chattupplevelsen. Chattförslag visas också tillsammans med sammanfattat innehåll på sökresultatsidan som en startpunkt för chattupplevelsen.  

Copilot i Bing låter också en användare skapa berättelser, dikter, sångtexter och bilder med hjälp av Bing. När Copilot i Bing upptäcker användarens avsikt att generera kreativt innehåll (till exempel börjar uppmaningen med "write me a ..."), kommer systemet i de flesta fall att generera innehåll som svarar på användarens uppmaning. På samma sätt, när Copilot i Bing upptäcker användarens avsikt att generera en avbildning (till exempel uppmaningen börjar med "rita mig en ..."), kommer systemet i de flesta fall att generera en bild som svarar på användarens uppmaning. I Visuella Search i chattfunktionen, med en bild tagen av användarens kamera, uppladdad från användarens enhet eller länkad från webben, kan användare uppmana Copilot i Bing att förstå kontexten, tolka och svara på frågor om bilden.  Användare kan också ladda upp sina filer till Copilot för att tolka, konvertera, bearbeta eller beräkna information från dem. I Microsoft Designer upplevelse som användare kan komma åt via Copilot i Bing kan användare inte bara generera bilder med hjälp av uppmaningar, utan också ändra storlek eller ändra stil på dem, eller göra ändringar som suddig bakgrund eller göra färger mer levande. 

Användare med Microsoft-konton (MSA) har nu också möjlighet att prenumerera på Copilot Pro som erbjuder en förbättrad upplevelse, inklusive snabbare prestanda, snabbare ai-avbildningsskapande och snart möjligheten att skapa egna Copilot GPTs. Copilot Pro är för närvarande tillgängligt i begränsade länder och vi planerar att göra Copilot Pro tillgängliga på fler marknader snart.

I Copilot-upplevelsen kan användare komma åt Copilot GPTs. En Copilot GPT, som Designer GPT, är en anpassad version av Microsoft Copilot i ett ämne som är av särskilt intresse för dig, till exempel fitness, resor och matlagning, som kan hjälpa till att förvandla vaga eller allmänna idéer till mer specifika uppmaningar med utdata inklusive texter och bilder. I Copilot kan användare se tillgängliga Copilot GPTs, och användare med Copilot Pro-konton kommer snart att ha tillgång till Copilot GPT Builder, en funktion som gör det möjligt för användare att skapa och konfigurera en anpassad Copilot GPT. De ansvarsfulla AI-lösningar som nämns ovan för Copilot i Bing gäller Copilot GPTs.

Mer information om hur Copilot Pro och Copilot GPTs fungerar finns här.

Copilot i Bing strävar efter att tillhandahålla mångsidiga och omfattande sökresultat med sitt engagemang för fri och öppen åtkomst till information. Samtidigt omfattar vårt arbete med produktkvalitet att undvika att oavsiktligt marknadsföra potentiellt skadligt innehåll för användare. Mer information om hur Bing rangordnar innehåll, inklusive hur det definierar relevans och kvaliteten och trovärdigheten på en webbsida, finns i "Bing Webmaster Guidelines".   Mer information om Bings principer för innehållsmoderering finns i "Hur Bing levererar sökresultat".   

I Copilot i Windows kan Copilot i Bing arbeta med Windows-operativsystemet för att tillhandahålla Windows-specifika färdigheter, till exempel ändra användarens tema eller bakgrund och ändra inställningar som ljud, Bluetooth och nätverk. Med de här upplevelserna kan användaren konfigurera sina inställningar och förbättra användarupplevelsen med hjälp av uppmaningar om naturligt språk till LLM. Programspecifika funktioner kan också tillhandahållas från programtillägg från tredje part. Dessa kan automatisera återkommande uppgifter och få bättre användareffektivitet. Eftersom LLMs ibland kan göra misstag, ges lämpliga uppmaningar om användarbekräftelse så att användaren är den slutliga skiljedomaren för ändringar som kan göras. 

Identifiera, mäta och minska riskerna  

Liksom andra transformationstekniker är det inte riskfritt att utnyttja fördelarna med AI, och en central del av Microsofts Responsible AI-program är utformat för att identifiera potentiella risker, mäta deras benägenhet att inträffa och bygga lösningar för att ta itu med dem. Med hjälp av våra AI-principer och vår ansvarsfulla AI-standard försökte vi identifiera, mäta och mildra potentiella risker och missbruk av Copilot i Bing samtidigt som vi säkrade de transformativa och fördelaktiga användningsområden som den nya upplevelsen ger. I avsnitten nedan beskriver vi vår iterativa metod för att identifiera, mäta och minimera potentiella risker.   

På modellnivå började vårt arbete med undersökande analyser av GPT-4 under sensommaren 2022. Detta inkluderade att genomföra omfattande röda teamtester i samarbete med OpenAI. Denna testning utformades för att bedöma hur den senaste tekniken skulle fungera utan att ytterligare skyddsåtgärder tillämpades på den. Vår specifika avsikt vid denna tidpunkt var att producera skadliga svar, öppna potentiella vägar för missbruk och identifiera funktioner och begränsningar. Våra kombinerade utbildningar i OpenAI och Microsoft bidrog till framsteg inom modellutveckling och, för oss på Microsoft, informerade vi om vår förståelse av risker och bidrog till tidiga minskningsstrategier för Copilot i Bing.  

Förutom testning av röda team på modellnivå genomförde ett tvärvetenskapligt team av experter många omgångar av röda teamtester på programnivå på Copilot i Bing AI erfarenheter innan de gjordes allmänt tillgängliga i vår begränsade förhandsversion. Den här processen hjälpte oss att bättre förstå hur systemet skulle kunna utnyttjas av adversariella aktörer och förbättra våra lösningar. Icke-kontradiktoriska stresstestare utvärderade också i stor utsträckning nya Bing-funktioner för brister och sårbarheter. Efter lanseringen är de nya AI-upplevelserna i Bing integrerade i Bings tekniska organisations befintliga produktionsmätnings- och testinfrastruktur. Till exempel försöker röda teamtestare från olika regioner och bakgrunder kontinuerligt och systematiskt äventyra systemet, och deras resultat används för att utöka datamängderna som Bing använder för att förbättra systemet.  

Red team testing and stress-testing can surface instances of specific risks, but in production users will have millions of different sort of conversations with Copilot in Bing. Dessutom är konversationer flervända och sammanhangsberoende, och att identifiera skadligt innehåll i en konversation är en komplex uppgift. För att bättre förstå och ta itu med risken för risker i Copilot i Bing AI upplevelser utvecklade vi ytterligare ansvarsfulla AI-mätvärden som är specifika för de nya AI-upplevelserna för att mäta potentiella risker som jailbreaks, skadligt innehåll och ogrundat innehåll. Vi har även aktiverat skalbaserad mätning via delvis automatiserade mätpipelines. Varje gång produkten ändras, befintliga lösningar uppdateras eller nya lösningar föreslås uppdaterar vi våra mätpipelines för att bedöma både produktprestanda och ansvarsfulla AI-mätvärden.  

Som ett illustrationsexempel innehåller den uppdaterade delvis automatiserade mätpipeline för skadligt innehåll två stora innovationer: konversationssimulering och automatiserad, mänskligt verifierad konversationsanteckning. Först skapade ansvarsfulla AI-experter mallar för att fånga strukturen och innehållet i konversationer som kan resultera i olika typer av skadligt innehåll. Mallarna gavs sedan till en konversationsagent som interagerade som hypotetisk användare med Copilot i Bing och genererade simulerade konversationer. För att ta reda på om dessa simulerade konversationer innehöll skadligt innehåll tog vi riktlinjer som vanligtvis används av experter för att märka data och ändra dem för användning av GPT-4 för att märka konversationer i stor skala och förfina riktlinjerna tills det fanns betydande enighet mellan modellmärkta konversationer och mänskligt märkta konversationer. Slutligen använde vi de modellmärkta konversationerna för att beräkna ett ansvarsfullt AI-mått som fångar copilots effektivitet i Bing när det gäller att begränsa skadligt innehåll.   

Våra mätpipelines gör det möjligt för oss att snabbt utföra mätningar för potentiella risker i skala. När vi identifierar nya problem under förhandsgranskningsperioden och pågående tester av röda team fortsätter vi att utöka måttuppsättningarna för att bedöma ytterligare risker.  

När vi identifierade potentiella risker och missbruk genom processer som testning av röda team och stresstester och mätte dem med de innovativa metoder som beskrivs ovan, utvecklade vi ytterligare lösningar för dem som används för traditionell sökning. Nedan beskrivs några av dessa lösningar. Vi kommer att fortsätta övervaka Copilot i Bing AI upplevelser för att förbättra produktens prestanda och lösningar.  

Stegvis version, kontinuerlig utvärdering. Vi är fast beslutna att ständigt lära oss och förbättra vår ansvarsfulla AI-strategi i takt med att våra tekniker och användarbeteenden utvecklas. Vår stegvisa lanseringsstrategi har varit en viktig del av hur vi flyttar vår teknik säkert från labben till världen, och vi är fast beslutna att genomföra en avsiktlig, genomtänkt process för att säkra fördelarna med Copilot i Bing. Att begränsa antalet personer med åtkomst under förhandsgranskningsperioden har gjort det möjligt för oss att upptäcka hur människor använder Copilot i Bing, inklusive hur personer kan missbruka det, så att vi kan försöka mildra framväxande problem innan de släpps i större grad. Vi kräver till exempel att användarna autentiserar med sitt Microsoft-konto innan de får tillgång till den nya Bing-upplevelsen. Oautentiserade användare kan bara komma åt en begränsad förhandsgranskning av upplevelsen. Dessa steg motverkar missbruk och hjälper oss att (vid behov) vidta lämpliga åtgärder som svar på överträdelser av regler för uppförande.  Vi gör dagligen ändringar i Copilot i Bing för att förbättra produktprestanda, förbättra befintliga lösningar och implementera nya lösningar som svar på våra inlärningar under förhandsgranskningsperioden.  

Grundstötning i sökresultat. Som nämnts ovan är Copilot i Bing utformad för att ge svar som stöds av informationen i webbsökresultat när användare söker information. Systemet är till exempel försett med text från de bästa sökresultaten och instruktioner via metaprompten för att grunda svaret. När copilot i Bing sammanfattar innehåll från webben kan det dock finnas information i svaret som inte finns i indatakällorna. Med andra ord kan det ge ogrundade resultat. Våra tidiga utvärderingar har visat att ogrundade resultat i chatt kan vara vanligare för vissa typer av uppmaningar eller ämnen än andra, till exempel att be om matematiska beräkningar, finans- eller marknadsinformation (till exempel företagsinkomster, aktieprestandadata) och information som exakta datum för händelser eller specifika priser på artiklar. Användare bör alltid vara försiktiga och använda sitt bästa omdöme när de visar sammanfattade sökresultat, oavsett om de är på sökresultatsidan eller i chattupplevelsen. Vi har vidtagit flera åtgärder för att minska risken att användare förlitar sig för mycket på ogrundat genererat innehåll i sammanfattningsscenarier och chattupplevelser. Till exempel innehåller svar i Copilot i Bing som baseras på sökresultat referenser till källwebbplatser för användare för att verifiera svaret och få mer information. Användarna får också ett uttryckligt meddelande om att de interagerar med ett AI-system och uppmanas att kontrollera källmaterial för webbresultatet för att hjälpa dem att använda sitt bästa omdöme.  

AI-baserade klassificerare och metaprompting för att minimera potentiella risker eller missbruk. Användningen av oem-tillverkare kan ge upphov till problematiskt innehåll som kan leda till risker eller missbruk. Exempel kan vara utdata som rör självskadebeteende, våld, grafiskt innehåll, immateriell egendom, felaktig information, hatfullt tal eller text som kan relatera till olaglig verksamhet. Klassificerare och metapromptering är två exempel på lösningar som har implementerats i Copilot i Bing för att minska risken för den här typen av innehåll. Klassificerare klassificerar text för att flagga olika typer av potentiellt skadligt innehåll i sökfrågor, chattmeddelanden eller genererade svar. Bing använder AI-baserade klassificerare och innehållsfilter som gäller för alla sökresultat och relevanta funktioner. vi har utformat ytterligare snabbklassifierare och innehållsfilter specifikt för att hantera eventuella risker som Copilot i Bing-funktioner tar upp. Flaggor leder till potentiella lösningar, till exempel att inte returnera genererat innehåll till användaren, omdirigera användaren till ett annat ämne eller omdirigera användaren till traditionell sökning. Metaprompting innebär att ge instruktioner till modellen för att styra dess beteende, bland annat så att systemet beter sig i enlighet med Microsofts AI-principer och användarnas förväntningar. Metaprompten kan till exempel innehålla en rad som "kommunicerar på användarens valspråk".   

Skydda integriteten i Visual Search i Copilot i Bing. När användare laddar upp en bild som en del av sin chattprompt använder Copilot i Bing ansiktsskarpa teknik innan han eller hon skickar bilden till AI-modellen. Ansiktsskarpa används för att skydda enskilda personers integritet i bilden. Den ansiktsskarpa tekniken förlitar sig på sammanhangs ledtrådar för att avgöra var du ska sudda och kommer att försöka sudda alla ansikten. Med suddiga ansikten kan AI-modellen jämföra den inmatade bilden med den av offentligt tillgängliga bilder på Internet. Som ett resultat kan Copilot i Bing till exempel identifiera en berömd basketspelare från ett foto av den spelaren på en basketplan genom att skapa en numerisk representation som återspeglar spelarens tröjnummer, tröjfärg, närvaron av en basketkorg etc. Copilot i Bing lagrar inte numeriska representationer av personer från uppladdade bilder och delar dem inte med tredje part. Copilot i Bing använder numeriska representationer av de bilder som användarna laddar upp endast i syfte att svara på användarnas uppmaningar, och sedan tas de bort inom 30 dagar efter att chatten har avslutats.    

Om användaren ber Copilot i Bing om information om en uppladdad bild kan chattsvaren återspegla effekten av suddighet i ansiktet på modellens förmåga att ge information om den uppladdade bilden. Copilot i Bing kan till exempel beskriva att någon har ett suddigt ansikte.    

Begränsa konversationsdriften. Under förhandsgranskningsperioden lärde vi oss att mycket långa chattsessioner kan resultera i svar som är repetitiva, ohjälpsamma eller inkonsekventa med Copilot i Bings avsedda ton. För att hantera den här konversationsfördrinningen begränsade vi antalet varv (utbyten som innehåller både en användarfråga och ett svar från Copilot i Bing) per chattsession. Vi fortsätter att utvärdera ytterligare metoder för att minimera problemet.  

Fråga om berikning. I vissa fall kan en användares uppmaning vara tvetydig. När detta händer kan Copilot i Bing använda LLM för att skapa mer information i uppmaningen för att säkerställa att användarna får det svar de söker. Sådan snabb berikande förlitar sig inte på någon kunskap om användaren eller deras tidigare sökningar, utan istället på AI-modellen. Dessa reviderade frågor visas i användarens chatthistorik och kan, precis som andra sökningar, tas bort med hjälp av produktkontroller.  

Användarcentrerad design och åtgärder för användarupplevelse. Användarcentrerad design och användarupplevelser är en viktig del av Microsofts inställning till ansvarsfull AI. Målet är att rot produktdesign i behov och förväntningar för användarna. När användare interagerar med Copilot i Bing för första gången erbjuder vi olika tryckpunkter som är utformade för att hjälpa dem att förstå systemets funktioner, avslöja för dem att Copilot i Bing använder AI och kommunicera begränsningar. Upplevelsen är utformad på det här sättet för att hjälpa användarna att få ut mesta möjliga av Copilot i Bing och minimera risken för överberoende. Element i upplevelsen hjälper också användare att bättre förstå Copilot i Bing och deras interaktioner med den. Dessa inkluderar chattförslag som är specifika för ansvarsfull AI (till exempel hur använder Bing AI? Varför svarar inte Copilot i Bing på vissa ämnen?), förklaringar av begränsningar, olika sätt för användare att lära sig mer om hur systemet fungerar och rapportera feedback samt enkla navigeringsbara referenser som visas i svar för att visa användare resultat och sidor där svaren är jordade.  

AI-avslöjande. Copilot i Bing tillhandahåller flera touchpunkter för meningsfull AI-avslöjande där användare meddelas att de interagerar med ett AI-system samt möjligheter att lära sig mer om Copilot i Bing. Genom att ge användarna den här kunskapen kan de undvika att förlita sig för mycket på AI och lära sig mer om systemets styrkor och begränsningar.  

Medias härkomst.Microsoft Designer har aktiverat funktionen "Innehållsautentiseringsuppgifter", som använder kryptografiska metoder för att markera källan, eller "proveniens", för alla AI-genererade bilder som skapats på Designer. Den osynliga digitala vattenstämpelfunktionen visar källan, tiden och datumet då originalet skapades, och den här informationen kan inte ändras. Tekniken använder standarder som fastställts av Coalition for Content and Authenticity (C2PA) för att lägga till ett extra lager av förtroende och transparens för AI-genererade bilder. Microsoft är en av grundarna av C2PA och har bidragit med kärntekniken för digitalt innehåll. 

användningsvillkor och regler för uppförande. Den här resursen reglerar användningen av Copilot i Bing. Användarna bör följa användningsvillkoren och reglerna för uppförande, som bland annat informerar dem om tillåtna och otillåtna användningsområden och konsekvenserna av att bryta mot villkoren. Användningsvillkoren ger också ytterligare upplysningar för användare och fungerar som en praktisk referens för användare att lära sig om Copilot i Bing.   

Åtgärder och snabba insatser. Vi använder också Copilot i Bings pågående övervaknings- och operativa processer för att ta itu med när Copilot i Bing tar emot signaler, eller tar emot en rapport, som indikerar eventuellt missbruk eller brott mot användningsvillkoren eller uppförandekoden.  

Feedback, övervakning och tillsyn. Copilot i Bing-upplevelsen bygger på befintliga verktyg som gör det möjligt för användare att skicka feedback och rapportera problem, som granskas av Microsofts verksamhetsteam. Bings operativa processer har också utökats för att ge plats åt funktionerna i Copilot i Bing-upplevelsen, till exempel genom att uppdatera sidan Rapportera ett problem så att nya typer av innehåll som användare genererar med hjälp av modellen inkluderas.   

Vår strategi för att identifiera, mäta och begränsa riskerna kommer att fortsätta att utvecklas allteftersom vi lär oss mer, och vi gör redan förbättringar baserat på feedback som samlats in under förhandsgranskningsperioden.     

Automatisk identifiering av innehåll. När användare laddar upp bilder som en del av chattupplysningen distribuerar Copilot i Bing verktyg för att upptäcka bilder av sexuellt utnyttjande av barn och övergrepp (CSEAI), framför allt PhotoDNA-hashmatchningsteknik. Microsoft utvecklade PhotoDNA för att hitta dubbletter av kända CSEAI. Microsoft rapporterar alla uppenbara CSEAI till National Center for Missing and Exploited Children (NCMEC), enligt amerikansk lag. När användare laddar upp filer för att analysera eller bearbeta distribuerar Copilot automatisk genomsökning för att identifiera innehåll som kan leda till risker eller missbruk, till exempel text som kan relatera till olagliga aktiviteter eller skadlig kod.

Skydda sekretess  

Microsofts långvariga tro på att integritet är en grundläggande mänsklig rättighet har informerat varje steg i Microsofts utveckling och distribution av Copilot i Bing-upplevelsen. Våra åtaganden att skydda alla användares integritet, bland annat genom att ge individer insyn och kontroll över sina data och integrera sekretess genom design genom dataminimisering och begränsning av syfte, är grundläggande för Copilot i Bing. När vi utvecklar vår strategi för att tillhandahålla Copilot i Bings generativa AI-upplevelser kommer vi ständigt att utforska hur vi bäst skyddar integriteten. Det här dokumentet uppdateras när vi gör det. Mer information om hur Microsoft skyddar våra användares integritet finns i Microsofts sekretesspolicy.  

I Copilot-upplevelsen i Windows kan Windows-färdigheter som en del av sina funktioner dela användarinformation med chattkonversationen. Användarens godkännande krävs och användargränssnittsuppmaningar visas för att bekräfta användarens avsikt innan användarinformationen delas med chattkonversationen.

Microsoft fortsätter att betrakta barns och ungdomars behov som en del av riskbedömningarna av nya generativa AI-funktioner i Copilot i Bing. Alla Microsoft-barnkonton som identifierar användaren som under 13 år eller på annat sätt anges enligt lokal lagstiftning kan inte logga in för att få tillgång till den nya Bing-upplevelsen.   

Enligt beskrivningen ovan har vi implementerat skydd för potentiellt skadligt innehåll för alla användare. I Copilot i Bing anges resultaten som i Bing SafeSearchs strikta läge, som har den högsta säkerhetsnivån i Bing-sökningen, vilket hindrar användare, inklusive tonåringsanvändare, från att exponeras för potentiellt skadligt innehåll. Förutom information som vi har lämnat i det här dokumentet och i våra vanliga frågor och svar om chattfunktioner finns mer information om hur Copilot i Bing fungerar för att undvika att svara med oväntat stötande innehåll i sökresultaten här.  

Microsoft har åtagit sig att inte leverera anpassad reklam baserat på onlinebeteende till barn vars födelsedatum i deras Microsoft-konto identifierar dem som under 18 år. Detta viktiga skydd utökas till annonser i Copilot i Bing-funktioner. Användare kan se sammanhangsberoende annonser baserat på frågan eller uppmaningen som används för att interagera med Bing.  

För att frigöra den transformativa potentialen hos generativ AI måste vi bygga upp förtroende för tekniken genom att ge individer möjlighet att förstå hur deras data används och ge dem meningsfulla val och kontroller över sina data. Copilot i Bing är utformad för att prioritera human agency, genom att tillhandahålla information om hur produkten fungerar samt dess begränsningar, och genom att utöka våra robusta konsumentval och kontroller till Copilot i Bing-funktioner.   

Microsofts sekretesspolicy innehåller information om våra transparenta sekretesspolicyer för att skydda våra kunder och innehåller information om de kontroller som ger våra användare möjlighet att visa och hantera sina personuppgifter. För att säkerställa att användarna har den information de behöver när de interagerar med Bings nya konversationsfunktioner informeras användarna om att de arbetar med en AI-produkt i produktinformationen, och vi tillhandahåller länkar till ytterligare vanliga frågor och svar och förklaringar om hur dessa funktioner fungerar. Microsoft fortsätter att lyssna på feedback från användare och kommer att lägga till ytterligare information om Bings konversationsfunktioner efter behov för att stödja förståelsen av hur produkten fungerar.   

Microsoft ger också sina användare robusta verktyg för att utöva sina rättigheter gentemot sina personuppgifter. För data som samlas in av Copilot i Bing, bland annat via användarfrågor och uppmaningar, ger Microsoft Sekretesspanelen autentiserade (inloggade) användare verktyg för att utöva sina registrerades rättigheter, bland annat genom att ge användare möjlighet att visa, exportera och ta bort lagrad konversationshistorik. Microsoft fortsätter att ta feedback på hur de vill hantera sin nya Bing-upplevelse, bland annat genom användning av kontextbaserade datahanteringsupplevelser.   

Copilot i Bing tar även emot förfrågningar inom ramen för den europeiska rätten att bli bortglömd, efter den process som Microsoft utvecklat och förfinat för Bings traditionella sökfunktionalitet. Alla användare kan rapportera problem med genererat innehåll och svar här, och våra europeiska användare kan använda detta formulär för att skicka förfrågningar om att blockera sökresultat i Europa under rätten att bli bortglömda.   

Copilot i Bing följer användarnas sekretessval, inklusive de som tidigare har gjorts i Bing, till exempel medgivande för insamling och användning av data som begärs via cookiebanderoller och kontroller som är tillgängliga i Microsoft Sekretesspanelen. För att göra det möjligt för användares autonomi och organ att fatta välgrundade beslut har vi använt vår interna granskningsprocess för att noggrant undersöka hur val presenteras för användarna. 

Förutom kontroller som är tillgängliga via Microsoft Sekretesspanelen, som gör det möjligt för användare att visa, exportera och ta bort sin sökhistorik, inklusive komponenter i chatthistoriken, kan autentiserade användare som har aktiverat funktionen Chatthistorik i produkten visa, komma åt och ladda ned chatthistorik via produktkontroller. Användare kan när som helst rensa specifika chattar från chatthistoriken eller inaktivera funktionen för chatthistorik genom att gå till sidan för Bing-inställningar. Användare kan också välja om de vill tillåta anpassning för att få tillgång till en mer anpassad upplevelse med anpassade svar. Användare kan när som helst välja att inte anpassa sig i chattinställningarna på sidan Bing-inställningar.  Om du rensar specifika chattar från chatthistoriken kan de inte användas för anpassning.  
 
Mer information om chatthistorik och anpassning ges till användare i Copilot i vanliga frågor och svar om Bing. 

Copilot i Bing byggdes med sekretess i åtanke, så att personuppgifter samlas in och används endast vid behov och bevaras inte längre än vad som är nödvändigt. Som nämnts ovan distribuerar Visual Search i Copilot i Bing-funktionen en mekanism som suddar ut ansikten i bilderna vid tiden för användarnas uppladdning, så att ansiktsbilder inte bearbetas eller lagras ytterligare. Mer information om de personuppgifter som Bing samlar in, hur de används och hur de lagras och tas bort finns i Microsofts sekretesspolicy, som också innehåller information om Bings nya chattfunktioner.   

Copilot i Bing har policyer för datalagring och borttagning för att säkerställa att personuppgifter som samlas in via Bings chattfunktioner endast bevaras så länge som behövs.   

Vi kommer att fortsätta att lära oss och utveckla vår strategi för att tillhandahålla Copilot i Bing, och när vi gör det kommer vi att fortsätta att arbeta mellan discipliner för att anpassa vår AI-innovation till mänskliga värderingar och grundläggande rättigheter, inklusive att skydda unga användare och integritet.   

Copilot med kommersiellt dataskydd 

Copilot med kommersiellt dataskydd, tidigare kallat Bing Chat Enterprise ("BCE"), släpptes av Microsoft i en kostnadsfri offentlig förhandsversion i juli 2023 som ett kostnadsfritt tillägg för vissa M365-kunder. Copilot med kommersiellt dataskydd är en AI-förbättrad webbsökningsupplevelse för slutanvändare av företag. 

Som med Copilot i Bing, när en Copilot med kommersiellt dataskydd slutanvändare anger en uppmaning i gränssnittet, ledtexten, omedelbar konversation, topp sökresultat och metaprompt skickas som indata till LLM. Modellen genererar ett svar med hjälp av den snabba och omedelbara konversationshistoriken för att kontextualisera begäran, metaprompten för att justera svar med Microsoft AI-principer och användarnas förväntningar och sökresultaten för grundsvar i befintligt, högt rankat innehåll från webben. Detta fungerar på samma sätt som Copilot i Bing som beskrivs ovan i det här dokumentet, med undantag för att Copilot med kommersiellt dataskydd bara förlitar sig på omedelbar konversationshistorik (inte den senaste konversationshistoriken) på grund av att lagrad chatthistorik inte är en funktion som stöds för närvarande. Designer och visuella Search är nu tillgängliga i den här versionen. 

Liksom andra transformationstekniker är det inte riskfritt att utnyttja fördelarna med AI, och en central del av Microsofts Responsible AI-program är utformat för att identifiera potentiella risker, mäta deras benägenhet att inträffa och bygga lösningar för att ta itu med dem. Ovanstående beskrivning av Microsofts försök att identifiera, mäta och minimera potentiella risker för Copilot i Bing gäller även för den här versionen, med några förtydliganden om lösningar som beskrivs nedan: 

Stegvis version, kontinuerlig utvärdering. Precis som med Copilot Bing, för Copilot med kommersiellt dataskydd har vi också intagit en stegvis lanseringsmetod. Den 18 juli 2023 blev Copilot med kommersiellt dataskydd tillgängligt som en kostnadsfri förhandsversion för berättigade företagskunder med specifika M365-konton för att aktivera för företagets slutanvändare. Trettio (30) dagar efter att ha meddelat berättigade företagskunder blev Copilot med kommersiellt dataskydd "standard på" för samma kunder. Copilot med kommersiellt dataskydd har också sedan dess blivit tillgängligt för specifika utbildningsfakulteten M365-konton. Copilot med kommersiellt dataskydd blev allmänt tillgängligt för vissa företagskunder den 1 december 2023. I framtiden planerar vi att utöka tillgången till Copilot med kommersiellt dataskydd till fler Microsoft Entra ID användare.

användningsvillkor och regler för uppförande. Slutanvändare av Copilot med kommersiellt dataskydd måste följa slutanvändarnas användningsvillkor. Dessa användningsvillkor informerar slutanvändarna om tillåtna och otillåtna användningsområden och konsekvenserna av att bryta mot villkoren.  

Åtgärder och snabba insatser. Vi använder också Copilot i Bings pågående övervaknings- och operativa processer för att ta itu med när Copilot med kommersiellt dataskydd tar emot signaler, eller får en rapport, som indikerar eventuellt missbruk eller brott mot slutanvändarnas användningsvillkor

Feedback, övervakning och tillsyn. Copilot med kommersiellt dataskydd använder samma verktyg som Copilot i Bing för användare för att skicka feedback och rapportera problem, som granskas av Microsofts verksamhetsteam. Copilot i Bings operativa processer har också utökats för att ge utrymme åt funktionerna i Copilot med kommersiella dataskyddsupplevelser, till exempel genom att uppdatera sidan Rapportera ett problem så att nya typer av innehåll som användare genererar med hjälp av modellen inkluderas.  

För att säkerställa att slutanvändarna har den information de behöver när de interagerar med Copilot med kommersiellt dataskydd finns det produktdokumentation längst ned i dokumentet, inklusive vanliga frågor och svar och Läs mer-sidor. 

Uppmaningar och svar som genereras av slutanvändare i Copilot med kommersiellt dataskydd bearbetas och lagras i linje med företagets datahanteringsstandarder. Copilot med kommersiellt dataskyddserbjudande är för närvarande endast tillgängligt för företagskunder och deras autentiserade vuxna slutanvändare, därför förväntar vi oss inte att barn eller ungdomar ska vara slutanvändare av Copilot med kommersiellt dataskydd för närvarande. Copilot med kommersiellt dataskydd tillhandahåller dessutom inte någon beteendeinriktad reklam för slutanvändare. I stället är alla annonser som visas bara sammanhangsberoende relevanta annonser.  

Mer information

Det här dokumentet är en del av en bredare satsning på Microsoft för att omsätta våra AI-principer i praktiken. Mer information finns i:

Microsofts strategi för ansvarsfull AI

Microsofts ansvarsfulla AI Standard

Microsofts ansvarsfulla AI-resurser  

Microsoft Azure Learning-kurser om ansvarsfull AI  

Om det här dokumentet  

© 2023 Microsoft. Med ensamrätt. Det här dokumentet tillhandahålls i befintligt format och endast i informativt syfte. Informationen och bilderna i dokumentet, inklusive webbinformationen, kan komma att ändras utan föregående meddelande. Du tar risken att använda den. Några exempel är endast avsedda för illustrationer och är fiktiva. Ingen verklig koppling är avsedd eller härledd.  

Behöver du mer hjälp?

Vill du ha fler alternativ?

Utforska prenumerationsförmåner, bläddra bland utbildningskurser, lär dig hur du skyddar din enhet med mera.

Communities hjälper dig att ställa och svara på frågor, ge feedback och få råd från experter med rika kunskaper.

Hade du nytta av den här informationen?

Hur nöjd är du med språkkvaliteten?
Vad påverkade din upplevelse?
Genom att trycka på skicka, kommer din feedback att användas för att förbättra Microsofts produkter och tjänster. IT-administratören kan samla in denna data. Sekretesspolicy.

Tack för din feedback!

×