Gäller för

Obs!: Den här artikeln gäller Sidor i Copilot i Microsoft 365 Copilot-appen. Om du vill lära dig mer om Sidor i Copilot i Microsoft Copilot-appen kan du läsa Använda Sidor i Copilot med Microsoft Copilot. Om du har ett arbets- eller skolkonto (Entra ID) är Sidor i Copilot tillgängligt för dem som har SharePoint- eller OneDrive-lagring, inklusive sådana som saknar Microsoft 365 Copilot-licens. Om du har en personlig Microsoft-konto är Sidor i Copilot tillgängligt om du prenumererar på Microsoft 365 Personal, Family eller Premium. Få mer information om Microsoft 365 Copilot-licensieringoch Microsoft 365 Copilot-abonnemang.

Var sparas en Copilot-sida när jag skapar den?  

En Copilot-sida sparas som en .page-fil i en ny användarägd SharePoint Embedded-behållare. Läs mer om Sidor i Copilot lagringsutrymme.

Hur kan överdelning förhindras med Sidor i Copilot ?  

Det finns några sätt att styra överdelningen i organisationen. Läs mer i Sammanfattning av styrnings-, livscykel- och efterlevnadsfunktioner för Sidor i Copilot och Loop upplevelser.

Vad är skillnaden mellan Sidor i Copilot, Microsoft Loop och Microsoft 365 Copilot-anteckningsböcker ?

Sidor i Copilot och Microsoft Loop

Sidor i Copilot är .page-filer och har samma funktioner som Loop sidor. När du delar en sidlänk till andra från chatten öppnar sidlänkens mottagare Copilot-sidan i Loop-appen.

Sidor i Copilot och Copilot Notebooks

Sidor i Copilot är en samarbetsbaserad, redigerbar arbetsyta i Copilot-chatten, så att användare kan omvandla AI-svar till delningsbara sidor för teamsamarbete. 

Copilot Notebooks är en AI-driven anteckningsbok som centraliserar alla relevanta resurser, till exempel Copilot Chat, filer, sidor, mötesanteckningar och länkar. Den ger fokuserade svar som är skräddarsydda för ditt innehåll och håller referenser uppdaterade allteftersom projektet utvecklas.

Mer information finns i Jämföra Microsoft Loop, Sidor i Copilot och Copilot-anteckningsböcker.

Var kan jag läsa mer om sekretess med Copilot?

Copilot och Microsoft 365 är byggt på Microsofts omfattande metod för säkerhet, efterlevnad och sekretess.

Mer information om sekretess finns i följande information:

Kan jag lita på att svaren alltid är korrekta?

Generativa AI-funktioner strävar efter att ge korrekta och informativa svar baserat på tillgängliga data. Svaren kanske inte alltid är korrekta eftersom de genereras baserat på mönster och sannolikheter i språkdata. Använd din egen bedömning och dubbelkolla fakta innan du fattar beslut eller vidtar åtgärder baserat på svaren.

Även om dessa funktioner har lösningar för att undvika att dela oväntat stötande innehåll i resultat och förhindra visning av potentiellt skadliga ämnen, kan du fortfarande se oväntade resultat. Vi arbetar ständigt med att förbättra vår teknik för att proaktivt ta itu med problem i linje med våra ansvarsfulla AI-principer.

Vad ska jag göra om jag ser felaktigt, skadligt eller olämpligt innehåll?  

Copilot innehåller filter för att blockera stötande språk i anvisningarna och för att undvika att syntetisera förslag i känsliga sammanhang. Vi fortsätter att arbeta med att förbättra filtersystemet för att på ett smartare sätt identifiera och ta bort stötande utdata. Om du ser stötande utdata kan du skicka feedback med hjälp av ikonerna för tummen upp/tummen ned så vi kan förbättra våra säkerhetsåtgärder. Microsoft tar den här utmaningen på största allvar och vi är fast beslutna att ta itu med den.

Hur utvärderas Sidor i Copilot ?

Sidor i Copilot utvärderades genom omfattande manuell och automatisk testning utöver Microsofts interna användning och offentliga data. Mer utvärdering utfördes över anpassade datauppsättningar för stötande och skadliga frågor (användarfrågor) och svar. Dessutom utvärderas Sidor i Copilot kontinuerligt med feedback från användare online.Mer information finns i Transparency Note för Microsoft 365 Copilot om du vill veta mer.

Vilka operativa faktorer och inställningar möjliggör effektiv och ansvarsfull användning av Copilot?

Sidor i Copilot har granskats av vårt Responsible AI-team (RAI). Vi följer RAI-principerna och har implementerat:  

  1. Ansvarsfull AI-hanteringspipeline för att minimera risker som skadligt, olämpligt innehåll.

  2. I produktanvändarfeedback som användare kan rapportera stötande innehåll till Microsoft

Mer information finns i Microsoft Responsible AI Transparency Report och vårt åtagande för ISO/IEC 42001:2023 Artificial Intelligence Management System Standards.

Var kan jag ge feedback omSidor i Copilot ?

I Sidor i Copilot väljer du Inställningar med mera Tre punkteri det nedre vänstra hörnet bredvid ditt namn och väljer sedan Feedback.

Fler sätt att arbeta medSidor i Copilot

Kom igång med Microsoft 365 Sidor i Copilot

Lägga till Microsoft 365 Copilot Chat svar på flera Sidor i Copilot

Skapa utkast till innehåll med Microsoft 365 Copilot Chat och Sidor i Copilot

Så här delar du Microsoft 365 Sidor i Copilot

Behöver du mer hjälp?

Vill du ha fler alternativ?

Utforska prenumerationsförmåner, bläddra bland utbildningskurser, lär dig hur du skyddar din enhet med mera.