Logga in med Microsoft
Logga in eller skapa ett konto.
Hej,
Välj ett annat konto.
Du har flera konton
Välj det konto som du vill logga in med.

Senast uppdaterad: augusti 2023

Copilot kombinerar kraften hos stora språkmodeller (LLMs) med intelligensen hos Microsoft Graph. Med hjälp av dina affärsdata syntetiserar Copilot information från dokument, e-postmeddelanden och meddelanden för att ge dig sammanfattningar, besvara dina affärsfrågor och generera utkast till innehåll från dina filer, meddelanden med mera.

Copilot använder en stor språkmodell som efterliknar naturligt språk baserat på mönster från stora mängder träningsdata. Modellen är optimerad för konversation genom att använda Reinforcement Learning with Human Feedback (RLHF) – en metod som använder mänskliga demonstrationer för att styra modellen mot ett önskat beteende.

När du skickar en textprompt för att Copilot genererar modellen ett svar genom att ge förslag på vilken text som ska komma härnäst i en ordsträng. Modellen baseras på ett domänspecifikt språk (DSL) som gör att du kan ange vilken typ av information du vill söka efter och syntetisera från dina Microsoft 365-data. Det är viktigt att komma ihåg att systemet har utformats för att efterlikna naturlig mänsklig kommunikation, men resultatet kan vara felaktigt eller inaktuellt.

Använd naturligt språk för att ställa Copilot arbetsfrågor, för att skapa innehåll eller för en sammanfattning av ett ämne, dokument eller chattkonversation. Ju mer specifik uppmaning, desto bättre blir resultatet. 

Här är några exempel på uppmaningar som hjälper dig att komma igång:

  • Sammanfatta olästa e-postmeddelanden från John

  • Skapa ett utkast till ett meddelande till min grupp med åtgärdspunkter från mitt senaste möte

  • Vad är vår semesterpolicy?

  • Vem ska jag träffa i morgon?

Copilot är utformat för att ge korrekta och informativa svar, baserat på de kunskaper och data som är tillgängliga i Microsoft Graph. Svaren kanske inte alltid är korrekta eftersom de genereras baserat på mönster och sannolikheter i språkdata. Svaren innehåller referenser när det är möjligt och det är viktigt att verifiera informationen. Även om Copilot har utformats till att undvika att dela stötande innehåll eller potentiellt skadliga ämnen, kan du fortfarande se oväntade resultat. Vi arbetar kontinuerligt med att förbättra vår teknik för att förhindra skadligt innehåll.

Om du upptäcker att ett svar är felaktigt eller om du stöter på skadligt eller olämpligt innehåll kan du ge feedback genom att välja tummen ned-ikonen och beskriva problemet i detalj.

För att säkerställa kvalitet får Copilot testfrågor och dess svar utvärderas baserat på kriterier som noggrannhet, relevans, ton och intelligens. Utvärderingsresultaten används sedan för att förbättra modellen. Det är viktigt att komma ihåg att systemet har utformats för att efterlikna naturlig mänsklig kommunikation, men utdata kan vara oprecisa, felaktiga eller inaktuella. Att ge feedback via ikonerna tummen upp och tummen ned hjälper dig att lära Copilot vilka svar som är och inte är användbara för dig som användare. Vi kommer att använda den här feedbacken för att förbättra Copilot, precis som vi använder kundfeedback för att förbättra andra Microsoft 365 tjänster ochMicrosoft 365 appar. Vi använder inte den här feedbacken för att träna de grundmodeller som används av Copilot. Kunder kan hantera feedback via administratörskontroller. Mer information finns i Hantera Microsoft-feedback för din organisation

Nej, du behöver inte längre länka ditt personliga konto till ditt arbetskonto för att använda Copilot. Om du vill använda Copilot i Bing för företag loggar du in på Microsoft Edge med ditt arbetskonto.   

Om du vill använda Copilot i Bing för företag måste du vara inloggad Microsoft Edge med ditt Microsoft-arbetskonto. Om du vill använda Bing för konsumenter loggar du in på Microsoft Edge med ditt personliga Microsoft-konto. Om du vill använda båda samtidigt måste du öppna Microsoft Edge i två separata fönster, logga in på ett av dem med ditt arbetskonto och logga in på det andra med ditt personliga konto.   

Copilot bygger på Microsofts övergripande metod för säkerhet, efterlevnad och sekretess. Dina data (inklusive uppmaningar, svar och affärsdata som Copilot använder för att formulera sitt svar) används inte för att utbilda de stora språkmodeller (LLMs) som Copilot använder. Mer information finns i Data, Sekretess och säkerhet för Microsoft 365 Copilot

Eftersom AI är redo att förändra våra liv måste vi kollektivt definiera nya regler, normer och metoder för användning och påverkan av denna teknik. Microsoft har varit på en resa för ansvarsfull AI sedan 2017 då vi definierade våra principer och förhållningssätt för att se till att denna teknik används på ett sätt som drivs av etiska principer som prioriterar människor. Läs mer om Microsofts ramverk för att bygga AI-system på ett ansvarsfullt sätt, de etiska principer som vägleder oss och de verktyg och funktioner vi har skapat för att hjälpa kunderna att använda AI på ett ansvarsfullt sätt.

Copilot visar endast de data som varje enskild person kan komma åt med hjälp av samma underliggande kontroller för dataåtkomst som används i andra Microsoft 365 tjänster. Behörighetsmodellen i Microsoft 365 klientorganisation hjälper till att säkerställa att data inte läcker mellan användare och grupper. Mer information om hur Microsoft skyddar dina data finns i Microsofts sekretesspolicy.

Behöver du mer hjälp?

Vill du ha fler alternativ?

Utforska prenumerationsförmåner, bläddra bland utbildningskurser, lär dig hur du skyddar din enhet med mera.

Communities hjälper dig att ställa och svara på frågor, ge feedback och få råd från experter med rika kunskaper.

Hade du nytta av den här informationen?

Hur nöjd är du med språkkvaliteten?
Vad påverkade din upplevelse?
Genom att trycka på skicka, kommer din feedback att användas för att förbättra Microsofts produkter och tjänster. IT-administratören kan samla in denna data. Sekretesspolicy.

Tack för din feedback!

×