Bemærk!: Der kræves en Microsoft 365 Copilot-licens for at bruge Copilot Notesbøger, som udrulles i øjeblikket. Desuden skal konti have en SharePoint- eller OneDrive-licens (serviceplan) for at kunne oprette notesbøger. CopilotNotesbøger er ikke tilgængelig for personlige Microsoft-konti, f.eks. Microsoft 365 Personal- og Family-abonnenter. Få mere at vide om Microsoft 365 Copilot-licenserog Microsoft 365 Copilot-abonnementer.
Hvorfor åbnes mine Loop delte sider og søgeresultater i Copilot-sider?
Copilot-sider og Mit arbejdsområde deler det samme lager. Sider, der deles fra Loop arbejdsområder (f.eks. Mit arbejdsområde eller andre delte områder), åbnes i Copilot-sider via deling af links eller søgeresultater. Hvis du foretrækker det, kan du stadig få adgang til disse sider fra Loop.
Hvad er forskellen mellemCopilot Notebooks og OneNote?
Copilot Notebooks er AI-drevne rum, der er designet til at samle og vælge mellem referencerne i notesbogen ved hjælp af Copilot til at besvare spørgsmål eller oprette kontekstafhængigt indhold.
OneNote-notesbøger fokuserer på at indsamle og organisere noter, håndskrift og andre oplysninger, som du kan dele med andre. De fungerer som langsigtede videnlagre.
Du kan få mere at vide om, hvordanCopilot Notebooksog OneNote er sammenlignet, under Sammenlign Microsoft 365 Copilot-notesbøger og Microsoft OneNote.
Bruger Copilot Notebooks mine data til at træne den store sprogmodel?
Copilot Notebooks bruger ikke brugerdata til at træne den store sprogmodel.
Hvor gemmes Copilot-genererede data forCopilot Notebooks?
Copilot genererer Copilot-sider (.page-filer) og podcasts, som begge er gemt i den notesbog, de er oprettet i.
Hvor kan jeg få mere at vide om beskyttelse af personlige oplysninger med Copilot?
Microsoft 365 Copilot er bygget på Microsofts omfattende tilgang til sikkerhed, overholdelse af regler og standarder og beskyttelse af personlige oplysninger.
Du kan finde flere oplysninger i følgende:
-
Hvis du bruger Microsoft 365 Copilot i din organisation (med din arbejds- eller skolekonto), skal du se Data, Beskyttelse af personlige oplysninger og Sikkerhed for Microsoft 365 Copilot.
-
Hvis du bruger Microsoft 365-apps derhjemme som en del af Copilot Pro (med din personlige Microsoft-konto), skal du se Copilot Pro: Microsoft 365-apps og dine personlige oplysninger.
Kan jeg have tillid til, at svarene altid er nøjagtige?
Generative AI-funktioner bestræber sig på at give nøjagtige og informative svar baseret på de tilgængelige data. Svarene er dog muligvis ikke altid nøjagtige, da de genereres på baggrund af mønstre og sandsynligheder i sprogdata. Brug din egen dømmekraft, og dobbelttjek fakta, før du træffer beslutninger eller foranstaltninger baseret på svarene.
Selvom disse funktioner har afhjælpninger på plads for at undgå at dele uventet stødende indhold i resultater og forhindre visning af potentielt skadelige emner, kan du stadig se uventede resultater. Vi arbejder konstant på at forbedre vores teknologi for proaktivt at løse problemer i overensstemmelse med vores ansvarlige AI-principper.
Hvad skal jeg gøre, hvis jeg får vist unøjagtigt, stødende eller upassende indhold?
Copilot indeholder filtre til at blokere stødende sprog i prompterne og for at undgå at synkronisere forslag i følsomme sammenhænge. Vi arbejder fortsat på at forbedre filtersystemet for mere intelligent at opdage og fjerne stødende output. Hvis du ser stødende output, bedes du indsende feedback ved hjælp af ikonerne tommelfinger op/tommelfinger ned, så vi kan forbedre vores sikkerhedsforanstaltninger. Microsoft tager denne udfordring meget alvorligt, og vi er forpligtet til at løse den.
Hvordan evalueres Copilot-notesbøger?
Microsoft 365 Copilot-notesbøgerblev evalueret via omfattende manuelle og automatiske test ud over Microsofts interne brug og offentlige data. Flere evalueringer blev udført ved hjælp af brugerdefinerede datasæt for stødende og skadelige prompter (brugerspørgsmål) og svar. Desuden evalueres Copilot Notebooksløbende med brugerfeedback online.på Gennemsigtighedsnote for at få Microsoft 365 Copilot for at få mere at vide.
Du kan finde flere oplysningerHvilke driftsmæssige faktorer og indstillinger muliggør effektiv og ansvarlig brug af Copilot?
Copilot Notebooks er blevet gennemgået af vores Ansvarlige AI (RAI) team. Vi følger RAI's principper og har implementeret:
-
Ansvarlig ai-håndteringspipeline for at mindske risici som skadeligt, upassende indhold.
-
I produktbrugerfeedback, som brugerne kan rapportere stødende indhold til Microsoft med
Du kan få mere at vide i Microsofts rapport om ansvarlig AI-gennemsigtighed og vores forpligtelse til ISO/IEC 42001:2023 Artificial Intelligence Management System Standards.
Flere måder at arbejde medCopilot Notebooks
Introduktion til Microsoft 365 Copilot-notesbøger
Sådan fungerer Microsoft 365 Copilot-notesbøger