Senast uppdaterad: augusti 2023
Copilot kombinerar kraften hos stora språkmodeller (LLMs) med intelligensen hos Microsoft Graph. Med hjälp av dina affärsdata syntetiserar Copilot information från dokument, e-postmeddelanden och meddelanden för att ge dig sammanfattningar, besvara dina affärsfrågor och generera utkast till innehåll från dina filer, meddelanden med mera.
Copilot använder en stor språkmodell som efterliknar naturligt språk baserat på mönster från stora mängder träningsdata. Modellen är optimerad för konversation genom att använda Reinforcement Learning with Human Feedback (RLHF) – en metod som använder mänskliga demonstrationer för att styra modellen mot ett önskat beteende.
När du skickar en textprompt för att Copilot genererar modellen ett svar genom att ge förslag på vilken text som ska komma härnäst i en ordsträng. Modellen baseras på ett domänspecifikt språk (DSL) som gör att du kan ange vilken typ av information du vill söka efter och syntetisera från dina Microsoft 365-data. Det är viktigt att komma ihåg att systemet har utformats för att efterlikna naturlig mänsklig kommunikation, men resultatet kan vara felaktigt eller inaktuellt.
Använd naturligt språk för att ställa Copilot arbetsfrågor, för att skapa innehåll eller för en sammanfattning av ett ämne, dokument eller chattkonversation. Ju mer specifik uppmaning, desto bättre blir resultatet.
Här är några exempel på uppmaningar som hjälper dig att komma igång:
-
Sammanfatta olästa e-postmeddelanden från John
-
Skapa ett utkast till ett meddelande till min grupp med åtgärdspunkter från mitt senaste möte
-
Vad är vår semesterpolicy?
-
Vem ska jag träffa i morgon?
Copilot är utformat för att ge korrekta och informativa svar, baserat på de kunskaper och data som är tillgängliga i Microsoft Graph. Svaren kanske inte alltid är korrekta eftersom de genereras baserat på mönster och sannolikheter i språkdata. Svaren innehåller referenser när det är möjligt och det är viktigt att verifiera informationen. Även om Copilot har utformats till att undvika att dela stötande innehåll eller potentiellt skadliga ämnen, kan du fortfarande se oväntade resultat. Vi arbetar kontinuerligt med att förbättra vår teknik för att förhindra skadligt innehåll.
Om du upptäcker att ett svar är felaktigt eller om du stöter på skadligt eller olämpligt innehåll kan du ge feedback genom att välja tummen ned-ikonen och beskriva problemet i detalj.
För att säkerställa kvalitet får Copilot testfrågor och dess svar utvärderas baserat på kriterier som noggrannhet, relevans, ton och intelligens. Utvärderingsresultaten används sedan för att förbättra modellen. Det är viktigt att komma ihåg att systemet har utformats för att efterlikna naturlig mänsklig kommunikation, men utdata kan vara oprecisa, felaktiga eller inaktuella. Att ge feedback via ikonerna tummen upp och tummen ned hjälper dig att lära Copilot vilka svar som är och inte är användbara för dig som användare. Vi kommer att använda den här feedbacken för att förbättra Copilot, precis som vi använder kundfeedback för att förbättra andra Microsoft 365 tjänster ochMicrosoft 365 appar. Vi använder inte den här feedbacken för att träna de grundmodeller som används av Copilot. Kunder kan hantera feedback via administratörskontroller. Mer information finns i Hantera Microsoft-feedback för din organisation.
Nej, du behöver inte längre länka ditt personliga konto till ditt arbetskonto för att använda Copilot. Om du vill använda Copilot i Bing för företag loggar du in på Microsoft Edge med ditt arbetskonto.
Om du vill använda Copilot i Bing för företag måste du vara inloggad Microsoft Edge med ditt Microsoft-arbetskonto. Om du vill använda Bing för konsumenter loggar du in på Microsoft Edge med ditt personliga Microsoft-konto. Om du vill använda båda samtidigt måste du öppna Microsoft Edge i två separata fönster, logga in på ett av dem med ditt arbetskonto och logga in på det andra med ditt personliga konto.
Copilot och Microsoft 365 är byggt på Microsofts omfattande metod för säkerhet, efterlevnad och sekretess.
Mer information om sekretess finns i följande information:
-
Om du använder Copilot för Microsoft 365 i din organisation (med ditt arbets- eller skolkonto) läser du Data, sekretess och säkerhet för Microsoft Copilot för Microsoft 365.
-
Om du använder Copilot i Microsoft 365 appar hemma som en del av Copilot Pro (med dina personliga Microsoft-konto) läser du Copilot Pro: Microsoft 365 appar och din integritet.
Eftersom AI är redo att förändra våra liv måste vi kollektivt definiera nya regler, normer och metoder för användning och påverkan av denna teknik. Microsoft har varit på en resa för ansvarsfull AI sedan 2017 då vi definierade våra principer och förhållningssätt för att se till att denna teknik används på ett sätt som drivs av etiska principer som prioriterar människor. Läs mer om Microsofts ramverk för att bygga AI-system på ett ansvarsfullt sätt, de etiska principer som vägleder oss och de verktyg och funktioner vi har skapat för att hjälpa kunderna att använda AI på ett ansvarsfullt sätt.
Copilot visar endast de data som varje enskild person kan komma åt med hjälp av samma underliggande kontroller för dataåtkomst som används i andra Microsoft 365 tjänster. Behörighetsmodellen i Microsoft 365 klientorganisation hjälper till att säkerställa att data inte läcker mellan användare och grupper. Mer information om hur Microsoft skyddar dina data finns i Microsofts sekretesspolicy.