Senest opdateret: 12. juni 2023
Copilot kombinerer styrken ved store sprogmodeller (LLM'er) med Teams-data for at give oversigter og besvare spørgsmål i realtid for at hjælpe dig med at forblive produktiv på arbejdspladsen.
Chats:
-
Systemet opsummerer chatmeddelelser. Dets input er meddelelser fra den samtale, det kaldes fra, og dets output er en overordnet oversigt og vigtige punkter. Når det åbnes, giver Copilot automatisk en standardoversigt, der er baseret på den seneste samtaleoversigt. Brugerne kan også vælge at opsummere de seneste 1, 7 og 30 dages samtale. Brugeren kan skrive en forespørgsel (foreslået eller fritekst), og Copilot genererer svar baseret på chatoversigten. Almindelige use cases opsummerer chatten og får svar på spørgsmål som f.eks. de beslutninger, der blev truffet, eller åbne elementer.
Møder:
-
Copilot til møder er baseret på transskriptionen af mødet, så det fungerer kun, hvis mødet optages eller transskriberes. Brugeren kan skrive en forespørgsel (foreslået eller fritekst) når som helst under eller efter mødet, og Copilot genererer svar baseret på transskriptionen. Almindelige anvendelser er at generere mødenoter og handlingspunkter, give svar på forskellige spørgsmål, vise hovedideer, der er diskuteret, angive uløste spørgsmål og meget mere.
Copilot i Teams er tilgængelig i chats og møder.
-
Chats: Brugerne kan manuelt få adgang til Copilot ved at trykke på knappen Copilot i chathovedet. Hvis en licenseret bruger vender tilbage til en chat efter at have været væk i en længere periode, kan en klikbar smart handling desuden udløses for at informere brugeren om, at en oversigt kan være nyttig.
-
Møder: Brugerne kan få adgang til Copilot under et møde via knappen Copilot og efter et møde (under fanen med mødeoplysninger). Mødetransskription skal være slået til, for at Copilot kan fungere.
Copilot i Teams blev evalueret via omfattende manuelle og automatiske test ud over Microsofts interne brug og offentlige data. Flere evalueringer blev udført ved hjælp af brugerdefinerede datasæt for stødende og skadelige prompter (brugerspørgsmål) og svar. Desuden evalueres Copilot i Teams hele tiden via brugerfeedback online (tommelfinger op- og ned-feedbackfunktionen).
I chatscenarier er Copilot begrænset i forhold til, hvor mange data der kan behandles, og hvor langt tilbage det går for at hente et svar. Copilot kan højst gå 30 dage tilbage fra den seneste sendte meddelelse for at behandle data. Det kan også være yderligere begrænset af opbevaringspolitikker. I mødescenarier kan lange møder (længere end 2 timer) blive påvirket af længere ventetid sammenlignet med kortere.
Mange sprog understøttes i Copilot-scenarier. Kvaliteten forventes at være bedst, når input er på engelsk, mens kvaliteten forventes at blive forbedret over tid på andre sprog.
Teams Copilot kan ikke tilpasses. Administratorer kan vælge, hvilke Copilots der skal aktiveres via Microsoft 365 Administration, og de kan aktivere eller deaktivere Copilot i Teams. Brugerne kan vælge, hvilke spørgsmål de vil stille Copilot ud fra deres behov.
Teams Copilot giver de bedste svar, når brugerne gør følgende:
-
Begrænser spørgsmål til emner, der er dækket af chatten eller mødet. Copilot besvarer ikke ikke-relaterede spørgsmål.
-
Taler eller chatter på understøttede sprog. Copilot svarer på understøttede sprog, men som nævnt ovenfor giver engelsk input bedre svar. Til møder skal du sørge for, at det angivne sprog for transskriptionen stemmer overens med det talte sprog.
-
Sørg for, at den seneste og en væsentlig mængde indhold er tilgængelig. Copilot giver fejlmeddelelser, hvis disse krav ikke er opfyldt.
Copilot i Teams understøtter mange sprog. Du kan få mere at vide under Understøttede sprog i Microsoft Copilot.
Copilot og Microsoft 365 er bygget på Microsofts omfattende tilgang til sikkerhed, overholdelse af angivne standarder og beskyttelse af personlige oplysninger.
Du kan få flere oplysninger om beskyttelse af personlige oplysninger ved at se følgende oplysninger:
-
Hvis du bruger Copilot til Microsoft 365 i din organisation (med din arbejds- eller skolekonto), skal du se Data, beskyttelse af personlige oplysninger og sikkerhed for Microsoft Copilot til Microsoft 365.
-
Hvis du bruger Copilot i Microsoft 365-apps derhjemme som en del af Copilot Pro (med din personlige Microsoft-konto), skal du se Copilot Pro: Microsoft 365-apps og beskyttelse af dine personlige oplysninger.
De generative AI-funktioner i Teams bestræber sig på at give nøjagtige og informative svar baseret på de tilgængelige data. Svarene er dog muligvis ikke altid nøjagtige, da de genereres på baggrund af mønstre og sandsynligheder i sprogdata. Brug din egen dømmekraft, og dobbelttjek fakta, før du træffer beslutninger eller foranstaltninger baseret på svarene.
Selvom disse funktioner har foranstaltninger, der skal undgå deling af uventet stødende indhold i resultater, og foretager trin, der skal forhindre visning af potentielt skadelige emner, kan du stadig se uventede resultater. Vi arbejder konstant på at forbedre vores teknologi for proaktivt at løse problemer i overensstemmelse med vores principper for ansvarlig AI.
Hvis du finder et genereret svar, der er forkert, eller hvis du støder på stødende eller upassende indhold, skal du give feedback ved at klikke på tommelfinger ned i oversigten og angive yderligere kommentarer i feedbackformularen. Denne feedback hjælper os med at forbedre og minimere dette indhold i fremtiden.