Obs!: Den här artikeln handlar om sekretess- och säkerhetsavsnitt som rör Microsoft Copilot. Den gäller inte för användning av Microsoft 365 Copilot när du är inloggad med Entra ID. Mer information om detta finns i Företagsdataskydd.

Konversationshistorik

Sparas mina Copilot konversationer?

Som standard sparas de konversationer du har med Copilot och du kan visa och komma åt tidigare konversationer. Om du till exempel har skapat en detaljerad resplan med Copilot sparas konversationen du har. Du kan gå tillbaka till och referera till konversationen genom att öppna konversationshistoriken i appen Copilot.

Hur används mina Copilot konversationer?

Din integritet och ditt förtroende är av största vikt för oss. Microsoft använder bara dina konversationer för de begränsade syften som beskrivs i Microsofts sekretesspolicy för att felsöka problem, diagnostisera buggar, förhindra missbruk och övervaka, analysera och förbättra prestanda, och så att vi kan ge Copilot till dig.

Vi ger dig befogenhet att bestämma om du vill att vi ska använda dina konversationer för andra ändamål. Du bestämmer om vi kan använda dina konversationer för att:

Hur länge sparas mina Copilot konversationer?

Som standard lagrar vi konversationer i 18 månader. Du kan när som helst ta bort enskilda konversationer eller hela konversationshistoriken .

Kan jag ta bort mina tidigare konversationer?

Ja, du kan ta bort tidigare konversationer i Copilot.

Du kan ta bort enskilda konversationer i konversationshistoriken eller ta bort hela konversationshistoriken.

Kommer mina Copilot-konversationer att bli synliga för andra användare?

Nej, inget du säger till Copilot kommer att offentliggöras. Dina konversationer och data delas aldrig med andra användare.

Hur skyddas min integritet när jag delar en fil med Copilot ?

Om du delar en fil med Copilot (till exempel laddar upp ett dokument och ber Copilot att sammanfatta det) lagras filen på ett säkert sätt i upp till 30 dagar och tas sedan bort automatiskt. Oavsett dina sekretessinställningar utbildar vi inte våra Copilot generativa modeller på dina uppladdade filer. Och alla konversationer du har om filen behandlas precis som alla andra konversationer, beroende på dina val om du vill tillåta modellutbildning och anpassning, och som du kan ta bort när som helst.

Hur ska jag kommunicera med Copilot om konfidentiella eller känsliga ämnen? 

Du bör inte uppge konfidentiella eller känsliga personuppgifter som du inte vill att Microsoft ska använda i de syften som beskrivs i dessa vanliga frågor och svar och i Microsofts sekretesspolicy. Detta omfattar data som kan avslöja till exempel din ras, religion, sexuella läggning eller hälsostatus. 

 Du kan när som helst ta bort en tidigare Copilot konversation från konversationshistoriken. Du kan också styra om Copilot använder dina konversationer för modellutbildning eller för att anpassa din upplevelse

Vad gör jag om jag har frågor om sekretess eller dataskydd?

Mer information om Microsofts sekretessåtagande finns i Microsofts sekretesspolicy och sekretess på Microsoft.

Anpassning & minne

Hur anpassar Copilot min upplevelse?

Om anpassning har aktiverats för dig börjar Copilot komma ihåg viktig information från dina konversationer och kommer att använda dessa minnen i framtida konversationer för att ge dig en mer skräddarsydd och relevant upplevelse.

Vad kommer Copilot ihåg om mig?

Om anpassning är aktiverat kommer Copilot ihåg viktig information som du delar, till exempel namn, intressen och mål. Copilot kommer inte ihåg demografiska eller andra känsliga uppgifter.

Du kan redigera eller ta bort det Som Copilot kommer ihåg eller inaktivera anpassningen helt och hållet när som helst.

Hur kan jag se, ändra eller ta bort det som Copilot kommer ihåg om mig?

Du kan styra vad Copilot kommer ihåg om dig när som helst.

Är anpassning aktiverat som standard?

Om anpassning är tillgängligt för dig är det aktiverat som standard. Anpassning är för närvarande inte tillgängligt för användare i Brasilien, Kina (exklusive Hongkong), Israel, Nigeria, Sydkorea och Vietnam, eller för användare som inte är inloggade på Copilot via sitt Microsoft-konto eller annan autentisering från tredje part.

När du börjar använda Copilot visas ett meddelande i början av dina första konversationer och med jämna mellanrum därefter, om anpassning är aktiverat för dig. Om du vill kontrollera eller ändra dina anpassningsinställningar klickar du på länken i meddelandet för att avanmäla dig eller inaktivera anpassning i Copilot-inställningarna.

Hur inaktiverar jag anpassning?

Du kan inaktivera anpassning när som helst. Läs mer om hur du styr anpassning i Copilot. 

Observera att dessa alternativ bara är tillgängliga för användare som är inloggade, eftersom anpassning är inaktiverat för oautentiserade användare. 

Om du inaktiverar anpassning glömmer Copilot minnen från dina konversationer. Du kan fortfarande visa dina tidigare konversationer. Men din framtida Copilot upplevelse kommer inte längre att anpassas. Om du senare aktiverar anpassning igen börjar Copilot komma ihåg information som du har delat med den och börjar anpassa din upplevelse igen. 

Styr inställningen för Copilot anpassning personlig reklam?

Anpassningsinställningen i Copilot styr inte om du får personligt anpassade annonser, vilket är ett separat val du kan göra. Du kan när som helst ändra inställningen för personligt anpassade annonser, som gäller för Copilot och andra tillämpliga Microsoft-tjänster.

I vissa länder kan vi också visa en uppmaning om att du ska ta emot personligt anpassade annonser i Copilot. Om du har valt att inte ta emot personligt anpassade annonser, antingen via inställningen för personligt anpassade annonser eller den Copilot specifika uppmaningen, levererar vi inte personligt anpassade annonser till dig i Copilot.

Om dina inställningar tillåter att vi levererar personligt anpassade annonser i Copilot och om Copilot anpassningsinställning är aktiverad använder vi din Copilot konversationshistorik för att ytterligare anpassa de annonser du redan får. Observera att oavsett dina inställningar kan Copilot inte visa anpassade annonser för autentiserade användare under 18 år.

Tar jag bort konversationshistoriken om jag inaktiverar anpassning? 

Du kan när som helst inaktivera anpassning inom Copilot inställningar. Om du inaktiverar anpassning tas inte konversationshistoriken bort, men Copilot glömmer sina minnen från dina konversationer och slutar anpassa din upplevelse.

Anpassar Copilot interaktioner baserat på känsliga ämnen?

Oavsett dina användarinställningar är Copilot utformade för att aldrig anpassa interaktioner med dig baserat på vissa känsliga ämnen som dina personliga attribut (t.ex. ålder, kön, ras/etnicitet, sexuell läggning), hälsorelaterad information och politisk anknytning och preferenser. Detta skyddar din integritet och förhindrar användning av potentiellt känslig information. Vi har åtgärder för att filtrera bort innehåll från tidigare konversationer som kan anses vara känsligt, även om anpassning är aktiverat i dina inställningar.

Var dock försiktig när du delar information med Copilot som du anser vara känslig. Du kan när som helst styra vad Copilot kommer ihåg om dig.

Modellutbildning

Vad är "modellutbildning"?

Generativ AI refererar till en kategori AI-modeller som analyserar data, hittar mönster och använder dessa mönster för att generera eller skapa en ny utdata, till exempel text, foto, video, kod, data med mera. "Utbildning" en generativ AI-modell innebär att ge den information som hjälper den att lära sig att göra förutsägelser eller beslut. Utbildning är ett brett koncept som omfattar många olika aktiviteter för att hjälpa modeller att ge lämpligare resultat.

De här modellerna använder utbildningsdata för att lära sig allmänna relationer på språk, inte för att komma ihåg specifika konversationer. De lagrar eller har inte tillgång till de ursprungliga utbildningsdata. I stället är generativa AI-modeller utformade för att generera nya uttrycksfulla verk och innehåll.

Vi vidtar också ytterligare åtgärder för att förhindra att dessa modeller oavsiktligt reproducerar sina träningsdata, t.ex. att utföra tester och bygga filter som stänger av tidigare publicerat eller använt material.

Vilka externa data använder Microsoft för utbildning Copilot ?

Microsoft använder offentligt tillgängliga data, främst insamlade från maskininlärningsdatamängder och webbkrypningar, t.ex. sökmotorer. Vi exkluderar källor med betalväggar, innehåll som bryter mot våra policyer eller webbplatser som har använt branschstandardmetoder för att avregistrera sig från utbildning. Dessutom utbildar vi oss inte på uppgifter från domäner som listas i kontoret för den USA handelsrepresentanten (USTR) ökända marknader för piratkopiering och piratkopiering.

Använder Microsoft mina data för att utbilda AI-modeller?

Förutom vissa kategorier av användare eller användare som har avanmält sig använder Microsoft data från Bing, MSN, Copilot och interaktioner med annonser på Microsoft för AI-utbildning. Detta omfattar avidentifierade sök- och nyhetsdata, interaktioner med annonser och dina röst- och textkonversationer med Copilot. Dessa data används för att förbättra Copilot och våra andra produkter och tjänster för att skapa en bättre användarupplevelse för dig och andra.

Genom att använda verkliga konsumentdata för att träna våra underliggande generativa AI-modeller kan vi förbättra Copilot och erbjuda en mer tillförlitlig och relevant upplevelse. Ju mer mångfald i samtal våra AI-modeller utsätts för, desto bättre kommer de att förstå och tjäna viktiga regionala språk, geografiska områden, kulturella referenser och populära ämnen av intresse för dig och andra användare.

Du kan också styra om Copilot använder dina konversationer för modellutbildning.

Vilka data är undantagna från modellutbildning?

Vi utbildar inte Copilot på data från följande typer av användare: 

  • Användare som är inloggade på Copilot med ett organisationskonto för Entra ID. Du kan läsa mer om Enterprise Data Protection.

  • Användare av Copilot i Microsoft 365-appar med personliga prenumerationer eller familjeprenumerationer.

  • Användare som inte är inloggade på Copilot (antingen med ett Microsoft-konto eller annan autentisering från tredje part).

  • Användare under 18 år som är inloggade på Copilot.

  • Användare som har valt bort modellutbildning.

  • Användare i Brasilien, Kina (utom Hongkong), Israel, Nigeria, Sydkorea och Vietnam. Detta innebär att Copilot kommer att vara tillgängliga på vissa av dessa marknader, men inga användardata kommer att användas för generativ AI-modellutbildning på dessa platser tills vidare.

Vi begränsar även vilka typer av data vi använder för utbildning. Vi utbildar inte AI-modeller på:

  • Personliga kontouppgifter som profildata för ditt Microsoft-konto eller e-postinnehåll.

  • Innehållet i filer som du laddar upp till Copilot, även om alla konversationer du har med Copilot om filen hanteras precis som alla andra konversationer (och omfattas av ditt val om du vill tillåta modellutbildning i dina konversationer).

  • Identifiera information i uppladdade bilder. Om några bilder ingår i dina Copilot konversationer vidtar vi åtgärder för att avetifiera dem, till exempel ta bort metadata eller andra personuppgifter och suddiga bilder av ansikten.

  • Information som kan identifiera dig, till exempel namn, telefonnummer, enhets- eller kontoidentifierare, känsliga personuppgifter, fysiska adresser och e-postadresser.

Hur skyddar Microsoft mina data när de utbildar AI-modeller?

Dina personliga interaktioner med våra tjänster hålls privata och avslöjas inte utan ditt tillstånd. Vi tar bort information som kan identifiera dig, till exempel namn, telefonnummer, enhets- eller kontoidentifierare, känsliga personuppgifter, fysiska adresser och e-postadresser, innan ai-modeller utbildas.

Dina data förblir privata när du använder våra tjänster. Vi skyddar dina personuppgifter på det sätt som beskrivs i Microsofts sekretesspolicy och i enlighet med sekretesslagarna runt om i världen.

Hur kan jag styra om mina data används för modellutbildning?

Om du är inloggad på Copilot med ett Microsoft-konto eller annan autentisering från tredje part kan du styra om dina konversationer används för att utbilda de generativa AI-modeller som används i Copilot. Om du avregistrerar dig utesluts dina tidigare, nuvarande och framtida konversationer från att användas för att utbilda dessa AI-modeller, såvida du inte väljer att registrera dig igen. Om du avregistrerar dig kommer den ändringen att återspeglas i våra system inom 30 dagar.

Om du inte är inloggad på Copilot med ett Microsoft-konto eller annan autentisering från tredje part utbildar vi inte Copilot i dina konversationer.

Läs om hur du styr om dina konversationer ska användas för modellutbildning.

Vi kan så småningom utöka modellutbildningen och avaktiveringskontrollerna till användare i vissa länder där vi för närvarande inte använder konversationshistorik för modellutbildning (se Vilka data utesluts från modellutbildning?). Men vi kommer att göra det gradvis, för att se till att vi får detta rätt för konsumenter och för att se till att vi följer lokala integritetslagar runt om i världen.

Kan jag välja bort modellutbildning och fortfarande ha en personlig Copilot upplevelse?

Ja, du kan välja bort modellutbildning och fortfarande ha anpassning aktiverat. I det här fallet kommer Copilot ihåg viktig information från dina konversationer för att ge dig ett mer personligt svar, men Microsoft kommer inte att använda dina konversationer för att utbilda Copilot generativa AI-modeller.

Gäller modellutbildning för Copilot Pro eller Microsoft 365?

AI-utbildning gäller konsument- Copilot erbjudanden inklusive Copilot Pro. Den exkluderar användare av Copilot med organisations- Entra ID-konton och alla Microsoft 365-konsumentanvändare eller Copilot konversationer som är integrerade i Microsoft 365-konsumentappar som Word, Excel, PowerPoint eller Outlook. Användare av dessa produkter kommer inte att se den här inställningen, och deras konversationer kommer inte att användas för att utbilda de generativa AI-modeller vi erbjuder i Copilot eller andra produkter.

Vi är medvetna om att kommersiella kunder har olika efterlevnadskrav mellan branscher och runt om i världen. Microsoft fortsätter att hjälpa dessa organisationer att använda klientbegränsningar och andra kontroller som vi tillhandahåller för att identifiera och hantera data som de äger, separat.  Mer information om hur Microsoft hanterar modellutbildning för kommersiella kunder finns i Om Enterprise Data Protection.

Granskas Copilot konversationer som människor?

Vissa Copilot konversationer är föremål för både automatiserad och mänsklig granskning av produktförbättringar och digitala säkerhetsändamål. Vi kan också granska konversationer som flaggats som ett brott mot reglerna för uppförande i användningsvillkoren. Vår uppförandekod förbjuder användning av Copilot-tjänsten för att skapa eller dela olämpligt innehåll eller material. Vissa konversationer granskas när en överträdelse av uppförandekoden misstänks.

Kan jag avregistrera mig från att få mina Copilot-konversationer granskade?

Begränsad granskning av människor krävs som en del av utredningsprocessen när en överträdelse av uppförandekoden misstänks. För att säkerställa att våra tjänster är säkra för alla är det inte tillgängligt att avregistrera sig från mänsklig granskning.

Ansvarig AI

Hur närmar sig Microsoft ansvarsfull AI för Copilot ?

På Microsoft tar vi vårt engagemang för ansvarsfull AI på allvar. Copilot utvecklas i enlighet med våra AI-principer, som visar engagemang för att se till att AI-system utvecklas ansvarsfullt och på sätt som motiverar människors förtroende. Vi har utformat Copilot användarupplevelse för att hålla människor i centrum och utvecklat skydd för att minimera fel och undvika missbruk, och vi förbättrar ständigt upplevelsen. Om du vill veta mer om hur du använder Copilot ansvarsfullt kan du läsa vår anteckning om användningsvillkor och transparens.

Hur använder Copilot Internet för att hitta informationskällorna?

Copilot söker efter relevant innehåll på webben och sammanfattar sedan den information som hittas för att generera ett användbart svar. Den citerar också dess källor så att du kan se och utforska länkar till innehållet som den refererar till.

Är Copilot svar alltid korrekta?

Copilot syftar till att svara med tillförlitliga källor, men AI kan göra misstag, och tredjepartsinnehåll på internet kanske inte alltid är korrekt eller tillförlitligt. Copilot kan förvränga den information som hittas och du kan se svar som låter övertygande men är ofullständiga, felaktiga eller olämpliga. Använd ditt omdöme och dubbelkolla fakta innan du fattar beslut eller vidtar åtgärder baserat på Copilot svar. Att granska Copilot källhänvisningar är ett bra ställe att börja söka efter korrekthet.

Om du vill dela webbplatsfeedback eller rapportera ett problem väljer du Ge feedback i Inställningar eller använder flaggikonen under varje svar i mobilappen och Copilot webbsida. I appen Copilot kan du också trycka länge på svaret och välja Rapport. Vi kommer att fortsätta att granska din feedback för att tillhandahålla en säker sökupplevelse för alla.

Vilken typ av skydd måste Copilot se till att innehållet är säkert?

Ansvarsfull AI är en resa och vi utvärderar och förbättrar kontinuerligt Copilot för att göra upplevelsen ännu säkrare. Vi tillämpar rigorös innehållsfiltrering på den information vi använder för att utbilda Copilot och vi vidtar åtgärder för att utvärdera Copilot svar på potentiella säkerhetsrisker innan svaret presenteras för dig. Vi har också system för att upptäcka och förhindra missbruk.

För att förbättra Copilot säkerhet och förmåga att upptäcka risker samarbetar vi dessutom med externa forskningsorganisationer för att granska och utvärdera Copilot konversationer. Externa forskningsorganisationer kan till exempel hjälpa till att granska Copilot konversationsloggar för att förstå de olika frågor som används för att söka extremistiskt innehåll, jämföra trender i branschen och ge råd till tekniker för att bättre hitta och mildra skador.

Du kan läsa mer om vår inställning till säkerhet i vår Transparency Note.

Vad ska jag göra om jag ser oväntat eller stötande innehåll?

Även om vi har utformat Copilot för att undvika att dela oväntat stötande innehåll eller interagera med potentiellt skadliga ämnen, kan du fortfarande se oväntade resultat. Vi arbetar ständigt med att förbättra vår teknik för att förhindra skadligt innehåll.

Om du stöter på skadligt eller olämpligt innehåll kan du ge feedback eller rapportera ett problem genom att klicka på Ge feedback i Inställningar eller använda flaggikonen under varje svar i mobilappen och Copilot webbsida. I Copilot-mobilappen kan du också trycka länge på svaret och välja Rapportera. Vi fortsätter att granska din feedback för att tillhandahålla en säker upplevelse.

Hur förbättrar mänsklig granskning av Copilot konversationer din upplevelse?

Utbildade AI-experter kan granska Copilot konversationer för att bygga, utvärdera och förbättra noggrannheten och säkerheten för våra AI-modeller. Vi använder mänsklig feedback för att säkerställa kvalitetsresultat till en användares uppmaning och förbättra din upplevelse. Dina data förblir privata när du använder våra tjänster. Vi skyddar dina personuppgifter på det sätt som beskrivs i Microsofts sekretesspolicy och i enlighet med sekretesslagarna runt om i världen.

Ibland känns det som om Copilot är en annan person. Varför är det så?

Copilot är utformad för att vara en användbar AI-assistent genom att vara responsiv, konversationsberoende och sammanhangsberoende. Den kan chatta med dig i vardagen, svara snabbt och referera till information som du redan har delat. Du kan använda Copilot för att svara på frågor, hitta information, hjälpa till med att skriva och vägleda dig genom uppgifter. Copilot har utvecklats för att känna sig intuitiv och stödjande. Dessa egenskaper kan göra interaktioner med AI-assistent känns som en naturlig konversation med en kollega eller vän.  

Det är dock viktigt att komma ihåg att Copilot är ett verktyg och inte en person och inte har sina egna åsikter eller känslor. Det är ett programvarusystem som genererar svar genom att upptäcka mönster i data och kanske inte har fullständig kontext av den verkliga världen. Copilot kanske inte alltid har rätt svar, särskilt för komplexa och känslomässiga situationer, eller andra områden där det kan ha otillräckliga data. Den finns här för att hjälpa dig att fatta dina egna beslut och inte ersätta dem. 

Ibland känns mina samtal med Copilot förvirrande eller känslomässigt tunga. Vad ska jag göra?

Om en chatt någonsin känns förvirrande eller känslomässigt tung är det en bra idé att ta lite tid att pausa och reflektera. Du kan också checka in med någon du litar på om du någonsin är osäker på något Copilot har sagt eller hur du känner för interaktionen; Detta kan omfatta vänner, familj, personer du känner från din community, rådgivare eller andra yrkesutövare.

Behöver du mer hjälp?

Vill du ha fler alternativ?

Utforska prenumerationsförmåner, bläddra bland utbildningskurser, lär dig hur du skyddar din enhet med mera.