Copilot w Strumień to funkcja zaprojektowana w celu poprawy doświadczenia oglądania wideo w ramach Microsoft 365. Działa ono w przypadku Teams nagrań spotkań odtwarzanych w Strumień lub dowolnego Strumień pliku wideo przechowywanego w Co to jest OneDrive? (w pracy lub szkole) i SharePoint. Ta funkcja umożliwia Ci:
-
Podsumuj klipy wideo: Zawiera zwięzłe omówienie głównych tematów wideo.
-
Wyodrębnij kluczowe informacje: Wyróżnia ważne punkty i generuje notatki ze spotkania na podstawie szczegółów omawianych podczas spotkania wideo.
-
Utwórz czynności do wykonania: Identyfikuje zadania, które należy rozwiązać.
-
Uzyskaj odpowiedzi: Odpowiada na zapytania oparte na zawartości wideo.
-
Zidentyfikuj nierozstrzygnięte kwestie: Wyświetla listę pytań zgłoszonych w klipie wideo, które pozostają bez odpowiedzi.
-
Znaczniki czasu linku: Umożliwia przejście bezpośrednio do określonych sekcji klipu wideo.
Aby uzyskać dostęp do tych funkcji, wybierz przewodnik po poleceniach w aplikacji internetowejStrumień. Wybierz żądaną akcję, taką jak Podsumuj wideo i Przejrzyj wygenerowane wyniki Copilot.
Pamiętaj, że Copilot w Strumień używa transkrypcji wideo, więc jeśli oglądany klip wideo nie ma transkrypcji, musisz najpierw ją wygenerować. Użytkownicy z uprawnieniami do edycji pliku wideo mogą tworzyć transkrypcje bezpośrednio w ustawieniach wideo. Aby dowiedzieć się więcej, zobacz Witamy w aplikacji Microsoft Copilot w Stream.
Wybierz nagłówek poniżej, aby uzyskać więcej informacji.
-
Copilot wymaga co najmniej 100 słów w transkrypcji wideo w celu podsumowania treści. Jeśli istnieje bardzo krótka transkrypcja, Copilot nie będzie działać.
-
Copilot jest w stanie odczytać tylko pierwszą transkrypcję wygenerowaną dla wideo. W przypadku, gdy do filmu dodano wiele transkrypcji lub tłumaczeń, Copilot domyślnie wybierze oryginalną transkrypcję.
-
Usługa Copilot nie generuje żadnej nowej zawartości ani nie edytuje klipu wideo. Po prostu odpowiada na pytania na podstawie istniejącej transkrypcji wideo.
Copilot w Strumień nie może być dostosowany, ale użytkownicy mogą wybrać, jakie pytania mają być zadawane w zależności od ich potrzeb.
Copilot w Strumień zareaguje najlepiej, gdy wykonasz następujące czynności:
-
Nie odbiegaj od tematu: Zadawaj tylko pytania związane z treścią wideo, ponieważ Copilot polega na transkrypcji, aby udzielić odpowiedzi.
-
Obsługa języków: Copilot obsługuje wiele języków, ale aby uzyskać najlepsze wyniki, należy używać języka angielskiego.
-
Dokładność transkrypcji: Upewnij się, że język transkrypcji jest zgodny z filmem wideo. Jeśli nie, wygeneruj nowy w odpowiednim języku w obszarze Ustawienia wideo.
Copilot została oceniona za pomocą szeroko zakrojonych ręcznych i automatycznych testów na podstawie wewnętrznych danych o użyciu i publicznych danych Microsoft. Dodatkowa ocena została przeprowadzona na niestandardowych zbiorach danych dla obraźliwych i złośliwych podpowiedzi (pytania użytkownika, wskazówki lub instrukcje) i odpowiedzi. Copilot jest również stale oceniany poprzez opinie użytkowników online.
Przekazywanie opinii za pomocą ikon kciuka w górę i kciuka w dół pomoże w nauce, które odpowiedzi są, a Copilot które nie są pomocne dla użytkownika. Wykorzystujemy te opinie do ulepszania Copilot, podobnie jak wykorzystujemy opinie klientów do ulepszania innych Microsoft 365 aplikacji i usług. Nie używamy jednak tych opinii do trenowania modeli fundamentalnych używanych przez Copilot. Zobacz sekcję Zarządzaj opiniami firmy Microsoft dla swojej organizacji, aby uzyskać więcej informacji.
Funkcja Copilot obsługuje szeroką gamę języków. Należy jednak pamiętać, że mogą istnieć pewne odmiany specyficzne dla aplikacji. Aby uzyskać najnowsze informacje na temat obsługi języków we wszystkich Copilot aplikacjach, zobacz obsługiwane języki w usłudze Microsoft Copilot.
Copilot została zweryfikowana przez nasz zespół ds. odpowiedzialnej sztucznej inteligencji (RAI). Przestrzegamy zasad OSI i wdrożyliśmy następujące zasady:
Obsługa potoku odpowiedzialnej sztucznej inteligencji w celu ograniczenia ryzyka, takiego jak szkodliwe, nieodpowiednie treści, podżeganie lub zachęcanie do szkodliwych działań, stereotypizacja / poniżanie lub nadmierna i niedostateczna reprezentacja grup społecznych, ataki typu „jailbreak” i ataki typu „prompt injection” między domenami.
Opinie użytkowników w produkcie, gdzie użytkownicy mogą zgłaszać obraźliwe treści z powrotem do Microsoft.
Te zabezpieczenia mają na celu promowanie efektywnego i etycznego wykorzystania Copilot możliwości.
Microsoft jest w trakcie realizacji strategii odpowiedzialnej sztucznej inteligencji od 2017 r., kiedy to zdefiniowaliśmy nasze zasady i podejście do zapewnienia, że technologia ta jest wykorzystywana w sposób oparty na zasadach etycznych, które stawiają ludzi na pierwszym miejscu. Dowiedz się więcej o naszej strategii odpowiedzialnej sztucznej inteligencji, zasadach etycznych, którymi się kierujemy, a także o narzędziach i możliwościach, które stworzyliśmy, aby zapewnić odpowiedzialny rozwój technologii AI.
Zawartość generowana przez Copilot usługę jest oparta na szerokiej gamie danych językowych i została zaprojektowana tak, aby była spójna i kontekstowo istotna. Jednak nie zawsze jest całkowicie oryginalna, ponieważ pochodzi z typowych wzorców językowych i istniejących informacji. Jest to narzędzie, które ma pomóc i zapewnić podstawę do tworzenia treści, ale ostateczna treść powinna być zawsze sprawdzana i weryfikowana pod kątem oryginalności i dokładności.
Funkcja Copilot i platforma Microsoft 365 są oparte na kompleksowym podejściu firmy Microsoft do zabezpieczeń, zgodności i prywatności.
Aby uzyskać więcej informacji na temat prywatności, zobacz następujące informacje:
-
Jeśli używasz funkcji Microsoft 365 Copilot w organizacji (z kontem służbowym), zapoznaj się z artykułem Dane, prywatność i zabezpieczenia środowiska Microsoft 365 Copilot.
-
Jeśli używasz usługi Copilot w aplikacjach Microsoft 365 dla domu (z osobistym kontem Microsoft), zobacz usługę Copilot w aplikacjach Microsoft 365 dla domu: Twoje dane i prywatność.
Microsoft 365 Copilot generuje informacje i wyjaśnia je w płynny, gramatycznie poprawny sposób, ale generowane przez nią treści mogą być niedokładne lub nieodpowiednie. Nie może zrozumieć znaczenia ani ocenić dokładności, więc pamiętaj, aby przeczytać to, co pisze, i poddać to swojemu osądowi.
Podobnie jak w przypadku każdej zawartości generowanej przez sztuczną inteligencję, jest to świetny początek, ale wiemy, że decyzje, które podejmujesz, mają duży wpływ. Sprawia to, że przeglądanie, edytowanie i weryfikowanie wszystkiego, co Microsoft 365 Copilot dla Ciebie tworzy, ma kluczowe znaczenie.
Tak. Przejdź do myaccount.microsoft.com, następnie do Ustawienia i prywatność, wybierz kartę Prywatność, a następnie Copilot historię interakcji. Zostanie wyświetlony przycisk umożliwiający wyczyszczenie historii. Aby uzyskać szczegółowe informacje na temat tej funkcji, zobacz Usuń historię interakcji z programem Microsoft Copilot. Copilot dane zostaną również usunięte ze wszystkich innych Microsoft 365 aplikacji.
Copilot zawiera filtry blokujące obraźliwy język w podpowiedziach i filtry unikające syntetyzowania sugestii we wrażliwych kontekstach. Nadal pracujemy nad ulepszeniem systemu filtrowania, aby inteligentniej wykrywać i usuwać obraźliwe wyniki. Jeśli widzisz obraźliwe dane wyjściowe, prześlij opinię za pomocą ikon kciuka w górę / kciuka w dół, abyśmy mogli ulepszyć nasze zabezpieczenia. Microsoft bardzo poważnie traktuje to wyzwanie i dokładamy wszelkich starań, aby je rozwiązać.