Prywatność — często zadawane pytania dotyczące Microsoft Copilot
Uwaga: Ten artykuł dotyczy kwestii związanych z ochroną prywatności i bezpieczeństwem związanych z usługą Microsoft Copilot. Nie dotyczy korzystania z Copilot platformy Microsoft 365 po zalogowaniu się przy użyciu Tożsamość Entra. Aby uzyskać więcej informacji na ten temat, przeczytaj o ochronie danych w przedsiębiorstwie.
Historia konwersacji
Czy moje Copilot konwersacje są zapisywane?
Domyślnie konwersacje z Copilot są zapisywane i możesz wyświetlać wcześniejsze konwersacje i uzyskiwać do nich dostęp. Jeśli na przykład utworzono szczegółowy plan podróży z Copilot, konwersacja zostanie zapisana. Możesz wrócić do konwersacji i odwołać się do niej, uzyskując dostęp do historii konwersacji w aplikacji Copilot.
Jak będą używane moje konwersacje Copilot ?
Twoja prywatność i zaufanie są dla nas najważniejsze. Firma Microsoft będzie korzystać z konwersacji użytkownika tylko w ograniczonych celach wyjaśnionych w oświadczeniu o ochronie prywatności firmy Microsoft, aby rozwiązywać problemy, diagnozować błędy, zapobiegać nadużyciom oraz monitorować, analizować i poprawiać wydajność, a także udostępniać użytkownikowi Copilot.
Dajemy Ci możliwość decydowania, czy chcesz, abyśmy korzystali z Twoich konwersacji do innych celów. Ty kontrolujesz, czy możemy używać Twoich konwersacji do:
-
Spersonalizuj swoje środowisko pracy z rozwiązaniami Copilot i zapewnij bardziej dostosowane i użyteczne środowisko, które spełnia Twoje potrzeby. Personalizację można wyłączyć w dowolnym momencie.
-
Wyszkol nasze generowanie modeli AI, aby stworzyć lepsze środowisko dla Ciebie i innych osób. W dowolnym momencie możesz zrezygnować z używania konwersacji na potrzeby szkoleń dotyczących modelu .
Jak długo są zapisywane moje Copilot konwersacje?
Domyślnie konwersacje są przechowywane przez 18 miesięcy. W dowolnym momencie możesz usunąć pojedyncze konwersacje lub całą historię konwersacji .
Czy mogę usunąć moje wcześniejsze konwersacje?
Tak, możesz usunąć wcześniejsze konwersacje w Copilot.
Możesz usuwać pojedyncze konwersacje w historii konwersacji lub usunąć całą historię konwersacji.
Czy moje Copilot konwersacje staną się widoczne dla innych użytkowników?
Nie, nic, co mówisz do Copilot, nie zostanie upublicznione. Twoje konwersacje i dane nigdy nie będą udostępniane innym użytkownikom.
Jak moja prywatność będzie chroniona podczas udostępniania pliku Copilot ?
Jeśli udostępnisz plik Copilot (na przykład przekażesz dokument i poprosisz Copilot o jego podsumowanie), plik będzie bezpiecznie przechowywany przez maksymalnie 30 dni, a następnie automatycznie usunięty. Niezależnie od ustawień prywatności nie szkolimy naszych modeli generowania Copilot w przekazywanych plikach. A wszelkie konwersacje na temat pliku będą traktowane jak każda inna konwersacja, z zastrzeżeniem twoich decyzji o tym, czy zezwolić na szkolenie modelu i personalizację, a które możesz usunąć w dowolnym momencie.
Jak należy kontaktować się z Copilot na poufne lub poufne tematy?
Nie należy podawać żadnych poufnych ani poufnych danych osobowych, których firma Microsoft nie powinna używać do celów wyjaśnionych w niniejszych często zadawanych pytaniach oraz w zasadach zachowania poufności informacji firmy Microsoft. Obejmuje to dane, które mogą ujawnić na przykład stan rasy, religii, orientacji seksualnej lub stanu zdrowia.
W dowolnym momencie możesz usunąć wcześniejszą konwersację Copilot z historii konwersacji. Możesz także określić, czy copilot używa Twoich konwersacji do szkolenia modelowego , czy też do personalizowania środowiska użytkownika.
Co zrobić, jeśli mam pytania dotyczące prywatności lub ochrony danych?
Aby dowiedzieć się więcej o zaangażowaniu firmy Microsoft w ochronę prywatności, odwiedź stronę Oświadczenie o ochronie prywatności i prywatność firmy Microsoft.
Personalizacja pamięci &
Jak Copilot spersonalizować moje środowisko?
Jeśli personalizacja jest włączona dla Ciebie, Copilot rozpocznie zapamiętywanie kluczowych szczegółów z konwersacji i użyje tych wspomnień w przyszłych konwersacjach, aby zapewnić Ci bardziej dostosowane i odpowiednie środowisko.
Co Copilot o mnie pamięta?
Jeśli personalizacja jest włączona, Copilot zapamiętuje najważniejsze szczegóły, które udostępniasz, takie jak imię i nazwisko, zainteresowania i cele. Copilot nie zapamiętuje danych demograficznych ani innych danych poufnych.
W dowolnym momencie możesz edytować lub usunąć to, co copilot zapamiętuje lub całkowicie wyłączyć personalizację.
Jak mogę wyświetlić, zmienić lub usunąć to, co Copilot o mnie pamięta?
Możesz kontrolować to, co Copilot pamięta o tobie w dowolnym momencie.
Czy personalizacja jest domyślnie włączona?
Jeśli personalizacja jest dostępna dla Ciebie, będzie ona domyślnie włączona. Personalizacja nie jest obecnie dostępna dla użytkowników w Brazylii, Chinach (z wyjątkiem Hongkongu), Izraelu, Nigerii, Korei Południowej i Wietnamie ani dla użytkowników, którzy nie są zalogowani do Copilot za pomocą konta Microsoft lub uwierzytelniania innych firm.
Gdy po raz pierwszy zaczniesz korzystać z Copilot na początku pierwszych kilku konwersacji zobaczysz powiadomienie, a okresowo później, jeśli personalizacja jest dla Ciebie włączona. Aby sprawdzić lub zmienić ustawienia personalizacji, kliknij link w tym powiadomieniu w celu rezygnacji lub wyłącz personalizację w ustawieniach copilot.
Jak wyłączyć personalizację?
Personalizację można wyłączyć w dowolnym momencie. Przeczytaj o tym, jak kontrolować personalizację w Copilot.
Należy pamiętać, że te opcje są dostępne tylko dla użytkowników zalogowanych, ponieważ personalizacja jest wyłączona dla nieuwierzytelnionych użytkowników.
Jeśli wyłączysz personalizację, Copilot zapomni o swoich konwersacjach. Nadal możesz wyświetlać wcześniejsze konwersacje. jednak przyszłe środowisko Copilot nie będzie już spersonalizowane. Jeśli później ponownie włączysz personalizację, Copilot zacznie zapamiętywać szczegóły, które zostały jej udostępnione, i ponownie rozpoczniesz personalizację środowiska.
Czy ustawienie personalizacji Copilot kontroluje spersonalizowane reklamy?
Ustawienie personalizacji w Copilot nie określa, czy otrzymujesz spersonalizowane reklamy, co jest odrębnym wyborem. W dowolnym momencie możesz zmienić ustawienia spersonalizowanych reklam, które mają zastosowanie do Copilot i innych odpowiednich usług firmy Microsoft.
W niektórych krajach możemy również wyświetlić monit z prośbą o podjęcie decyzji o otrzymywaniu spersonalizowanych reklam w Copilot. Jeśli nie chcesz otrzymywać spersonalizowanych reklam za pośrednictwem ustawienia spersonalizowanych reklam lub monitu dotyczącego Copilot, nie będziemy dostarczać Ci spersonalizowanych reklam w Copilot.
Jeśli Twoje ustawienia pozwalają nam na wyświetlanie spersonalizowanych reklam w Copilot, a jeśli ustawienie personalizacji Copilot jest włączone, użyjemy Twojej historii Copilot konwersacji, aby ułatwić dalszą personalizację już otrzymywanych reklam. Pamiętaj, że niezależnie od ustawień Copilot nie udostępnia uwierzytelnionym użytkownikom poniżej 18 roku życia spersonalizowanych reklam.
Czy wyłączenie personalizacji spowoduje usunięcie historii konwersacji?
W dowolnym momencie możesz wyłączyć personalizację w ustawieniach Copilot. Wyłączenie personalizacji nie spowoduje usunięcia historii konwersacji, ale Copilot zapomni o swoich konwersacjach i przestanie spersonalizować Twoje środowisko.
Czy Copilot personalizować interakcje na podstawie poufnych tematów?
Niezależnie od ustawień użytkownika Copilot ma na celu nigdy nie personalizowanie interakcji z użytkownikiem na podstawie niektórych poufnych tematów, takich jak atrybuty osobiste (np. wiek, płeć, rasa/pochodzenie etniczne, orientacja seksualna), informacje dotyczące zdrowia oraz przynależność polityczna i preferencje. Chroni to Twoją prywatność i zapobiega wykorzystywaniu potencjalnie poufnych informacji. Dysponujemy środkami umożliwiającymi odfiltrowanie zawartości z twoich wcześniejszych konwersacji, które mogą być uznawane za poufne, nawet jeśli personalizacja jest włączona w Twoich ustawieniach.
Należy jednak zachować ostrożność podczas udostępniania informacji Copilot, które uważasz za poufne. W dowolnym momencie możesz kontrolować to, co Copilot pamięta o tobie.
Szkolenia dotyczące modelu
Co to jest "szkolenie dotyczące modelu"?
AI generujące odnoszą się do kategorii modeli AI, które analizują dane, odnajdują wzorce i wykorzystują te wzorce do generowania lub tworzenia nowych danych wyjściowych, takich jak tekst, zdjęcie, wideo, kod, dane i inne. "Szkolenie" modelu wygenerowanej AI oznacza dostarczanie informacji, które pomogą jej nauczyć się przewidywać lub podejmować decyzje. Szkolenie to szerokie pojęcie, które obejmuje wiele różnych działań, aby ułatwić modelom dostarczanie bardziej odpowiednich wyników.
W tych modelach są używane dane szkoleniowe do uczenia się ogólnych relacji w języku, a nie do zapamiętywania określonych konwersacji. Nie przechowują ani nie mają dostępu do oryginalnych danych szkoleniowych. Zamiast tego modele generowania AI są zaprojektowane tak, aby generować nowe prace ekspresyjne i zawartość.
Ponadto podejmujemy dodatkowe kroki, aby zapobiec przypadkowemu odtworzeniu przez te modele danych szkoleniowych, takich jak przeprowadzanie testów i tworzenie filtrów, które prześwietlają wcześniej opublikowane lub użyte materiały.
Jakich danych zewnętrznych firma Microsoft używa na potrzeby szkoleń Copilot ?
Firma Microsoft korzysta z publicznie dostępnych danych, głównie zbieranych z standardowych w branży zestawów danych uczenia maszynowego i przeszukiwań sieci Web, takich jak wyszukiwarki. Wykluczamy źródła z paywalls, treści, które narusza nasze zasady, lub witryn, które wykorzystały standardowe metody branżowe do rezygnacji ze szkoleń. Ponadto nie szkolimy danych z domen wymienionych na liście Office of the Stany Zjednoczone Trade Representative (USTR) Notorious Markets for Counterfeiting and Piractwo.
Czy firma Microsoft używa moich danych do szkolenia modeli AI?
Z wyjątkiem niektórych kategorii użytkowników lub użytkowników, którzy zrezygnowali, firma Microsoft korzysta z danych z usługi Bing, MSN, Copilot oraz interakcji z reklamami w ramach szkoleń dotyczących SI firmy Microsoft. Obejmuje to pozbawione cech identyfikacyjnych dane wyszukiwania i wiadomości, interakcje z reklamami oraz konwersacje głosowe i tekstowe z Copilot. Te dane będą wykorzystywane do ulepszania Copilot oraz innych naszych produktów i usług w celu zapewnienia użytkownikowi lepszych możliwości użytkownika i innych.
Korzystając z rzeczywistych danych konsumenckich w celu szkolenia podstawowych modeli AI generującej, możemy ulepszyć Copilot i zaoferować bardziej niezawodne i odpowiednie środowisko. Im więcej różnorodności w konwersacjach są narażone na nasze modele AI, tym lepiej będą one rozumieć i obsługiwać ważne języki regionalne, lokalizacje geograficzne, odniesienia kulturowe i popularne tematy interesujące ciebie i innych użytkowników.
Możesz również określić, czy Copilot korzysta z konwersacji na potrzeby szkoleń dotyczących modelu.
Jakie dane są wykluczone ze szkolenia dotyczącego modelu?
Nie szkolimy Copilot danych od następujących typów użytkowników:
-
Użytkownicy zalogowani do Copilot przy użyciu konta Tożsamość Entra organizacyjnego. Możesz dowiedzieć się więcej o ochronie danych w przedsiębiorstwie.
-
Użytkownicy Copilot w aplikacjach platformy Microsoft 365 z subskrypcjami Personal lub Family.
-
Użytkownicy, którzy nie są zalogowani do Copilot (za pomocą konta Microsoft lub uwierzytelniania innych firm).
-
Użytkownicy poniżej 18 roku życia, którzy są zalogowani do Copilot.
-
Użytkownicy, którzy zrezygnowali ze szkoleń dotyczących modelu.
-
Użytkownicy w Brazylii, Chinach (z wyjątkiem Hongkongu), Izraelu, Nigerii, Korei Południowej i Wietnamie. Oznacza to, że Copilot będą dostępne na niektórych z tych rynków, ale żadne dane użytkowników nie będą wykorzystywane do generowania szkoleń dotyczących modeli AI w tych lokalizacjach do odwołania.
Ograniczamy również typy danych, których używamy na potrzeby szkoleń. Nie szkolimy modeli AI w zakresie:
-
Dane osobowe konta, takie jak dane profilu konta Microsoft lub zawartość wiadomości e-mail.
-
Zawartość plików przekazywanych do Copilot, chociaż wszystkie konwersacje z Copilot na temat pliku będą obsługiwane tak samo, jak wszystkie inne konwersacje (i podlegające twojej decyzji, czy zezwolić na szkolenie dotyczące modelu konwersacji).
-
Informacje identyfikujące przekazane obrazy. Jeśli w konwersacjach Copilot znajdują się jakiekolwiek obrazy, podejmujemy kroki w celu ich usunięcia, na przykład usunięcia metadanych lub innych danych osobowych oraz rozmycia obrazów twarzy.
-
Informacje, które mogą identyfikować użytkownika, takie jak nazwiska, numery telefonów, identyfikatory urządzenia lub konta, poufne dane osobowe, adresy fizyczne i adresy e-mail.
Jak firma Microsoft chroni moje dane podczas szkolenia modeli AI?
Twoje osobiste interakcje z naszymi usługami są prywatne i nie są ujawniane bez Twojej zgody. Przed szkoleniem modeli AI usuwamy informacje, które mogą identyfikować użytkownika, takie jak nazwiska, numery telefonów, identyfikatory urządzenia lub konta, poufne dane osobowe, adresy fizyczne i adresy e-mail.
Twoje dane pozostają prywatne podczas korzystania z naszych usług. Będziemy chronić Twoje dane osobowe, jak wyjaśniono w oświadczeniu o ochronie prywatności firmy Microsoft oraz zgodnie z przepisami dotyczącymi prywatności na całym świecie.
Jak mogę kontrolować, czy moje dane są używane do szkoleń dotyczących modelu?
Jeśli użytkownik jest zalogowany do Copilot przy użyciu konta Microsoft lub uwierzytelniania innej firmy, może kontrolować, czy konwersacje są używane do szkolenia generowania modeli AI używanych w Copilot. Rezygnacja z udziału w szkoleniach tych modeli AI spowoduje wyłączenie używanych w przeszłości, obecnych i przyszłych konwersacji, chyba że użytkownik zdecyduje się ponownie włączyć tę funkcję. Jeśli użytkownik zrezygnuje, ta zmiana zostanie odzwierciedlona w naszych systemach w ciągu 30 dni.
Jeśli użytkownik nie jest zalogowany do Copilot za pomocą konta Microsoft lub uwierzytelniania innych firm, nie szkolimy Copilot konwersacji użytkownika.
Przeczytaj, jak kontrolować, czy konwersacje są używane do szkolenia modelu.
Możemy w końcu rozszerzyć mechanizmy kontroli szkoleń dotyczących modelu i rezygnacji na użytkowników w niektórych krajach, w których historia konwersacji nie jest obecnie użyta na potrzeby szkoleń dotyczących modelu (zobacz Jakie dane są wykluczone ze szkolenia dotyczącego modelu?). Zrobimy to jednak stopniowo, aby zapewnić konsumentom to prawo i zapewnić przestrzeganie lokalnych przepisów dotyczących prywatności na całym świecie.
Czy mogę zrezygnować ze szkolenia dotyczącego modelu i nadal mieć spersonalizowane Copilot środowisko?
Tak, możesz zrezygnować ze szkolenia dotyczącego modelu i nadal mieć włączoną personalizację. W takim przypadku Copilot zapamięta najważniejsze szczegóły z konwersacji, aby udzielić bardziej spersonalizowanej odpowiedzi, ale firma Microsoft nie będzie używać Twoich konwersacji do szkoleń Copilot generowania modeli AI.
Czy szkolenie dotyczące modelu ma zastosowanie do platformy Microsoft 365?
Szkolenie dotyczące modelu AI ma zastosowanie do naszego środowiska Copilot dla klientów indywidualnych. Nie obejmuje ona użytkowników Copilot z kontami Tożsamość Entra organizacyjnych oraz użytkowników platformy Microsoft 365 dla klientów indywidualnych lub konwersacji Copilot zintegrowanych z aplikacjami konsumenckimi platformy Microsoft 365, takimi jak Word, Excel, PowerPoint lub Outlook. Użytkownicy tych produktów nie zobaczą tego ustawienia, a ich konwersacje nie będą używane do szkolenia generowania modeli AI, które oferujemy w Copilot lub innych produktach.
Zdajemy sobie sprawę, że klienci komercyjni mają różne wymagania dotyczące zgodności w różnych branżach i na całym świecie. Firma Microsoft będzie nadal pomagać tym organizacjom w korzystaniu z granic dzierżawy i innych mechanizmów kontroli udostępnianych przez nas w celu identyfikacji i zarządzania danymi, które posiadają oddzielnie. Aby dowiedzieć się więcej na temat sposobu, w jaki firma Microsoft obsługuje szkolenia dotyczące modelu dla klientów komercyjnych, przeczytaj o usłudze Enterprise Data Protection.
Czy Copilot rozmowy są przeglądane przez człowieka?
Niektóre Copilot konwersacje podlegają zarówno automatycznej, jak i ludzkiej weryfikacji w celu poprawy produktów i bezpieczeństwa cyfrowego. Możemy również przeglądać konwersacje oznaczone jako naruszenie Kodeksu postępowania w Warunkach użytkowania. Nasz Kodeks Postępowania zabrania korzystania z usługi Copilot w celu tworzenia lub udostępniania nieodpowiednich treści lub materiałów. Niektóre konwersacje są sprawdzane w przypadku podejrzenia naruszenia Kodeksu postępowania.
Czy mogę zrezygnować z przeglądania moich Copilot konwersacji przez człowieka?
W ramach procesu dochodzeniowego wymagana jest ograniczona weryfikacja człowieka w przypadku podejrzenia naruszenia Kodeksu postępowania. W celu zapewnienia, że nasze usługi są bezpieczne dla wszystkich, rezygnacja z oceny przez człowieka nie jest dostępna.
Odpowiedzialna sztuczna inteligencja
Jak firma Microsoft zbliża się do odpowiedzialnej SI za Copilot ?
W firmie Microsoft poważnie traktujemy nasze zobowiązanie do odpowiedzialnej sztucznej inteligencji. Copilot jest rozwijana zgodnie z naszymi zasadami dotyczącymi AI, które wykazują zaangażowanie w zapewnienie odpowiedzialnego i odpowiedzialnego rozwoju systemów AI, które uzasadniają zaufanie ludzi. Zaprojektowaliśmy Copilot środowisko użytkownika, aby utrzymać ludzi w centrum i opracowaliśmy zabezpieczenia w celu zminimalizowania błędów i uniknięcia niewłaściwego użycia, a my stale ulepszamy środowisko. Aby dowiedzieć się więcej na temat odpowiedzialnego korzystania z Copilot, zapoznaj się z naszymi informacjami dotyczącymi warunków użytkowania i przejrzystości.
W jaki sposób Copilot korzystać z Internetu w celu znajdowania źródeł informacji?
Copilot wyszukuje odpowiednią zawartość w internecie, a następnie podsumowuje informacje, które znajdzie, aby wygenerować pomocną odpowiedź. Przytacza również jego źródła, dzięki czemu możesz zobaczyć i eksplorować linki do zawartości, do której się odwołuje.
Czy odpowiedzi Copilot są zawsze dokładne?
Copilot ma na celu reagowanie na wiarygodne źródła, ale AI może popełniać błędy, a treści innych firm w Internecie mogą nie zawsze być dokładne lub wiarygodne. Copilot może wprowadzać w błąd informacje, które znajdzie, i mogą zostać wyświetlone odpowiedzi, które brzmią przekonująco, ale są niekompletne, niedokładne lub nieodpowiednie. Przed podjęciem decyzji lub podjęciem działań w oparciu o odpowiedzi Copilot należy dokładnie sprawdzić fakty. Sprawdzanie Copilot cytatów to dobre miejsce, aby rozpocząć sprawdzanie dokładności.
Aby udostępnić opinię na temat witryny lub zgłosić problem, wybierz pozycję "Przekaż opinię" w ustawieniach lub użyj ikony flagi poniżej każdej odpowiedzi w aplikacji mobilnej i Copilot stronę internetową. W aplikacji Copilot możesz również długo nacisnąć odpowiedź i wybrać pozycję "Raport". Będziemy nadal przeglądać Twoją opinię, aby zapewnić bezpieczne wyszukiwanie dla wszystkich.
Jakie zabezpieczenia Copilot muszą zapewnić bezpieczeństwo zawartości?
Odpowiedzialna SI jest podróżą, a my stale oceniamy i ulepszamy Copilot, aby uczynić to doświadczenie jeszcze bezpieczniejszym. Stosujemy rygorystyczne filtrowanie zawartości do informacji używanych do szkolenia Copilot i stosujemy środki umożliwiające ocenę reakcji Copilot pod kątem potencjalnych zagrożeń dla bezpieczeństwa przed przedstawieniem odpowiedzi. Mamy również systemy wykrywania i zapobiegania nadużyciom.
Ponadto w celu poprawy bezpieczeństwa Copilot i możliwości wykrywania zagrożeń współpracujemy z zewnętrznymi organizacjami badawczymi, aby przeglądać i oceniać Copilot konwersacje. Na przykład zewnętrzne organizacje badawcze mogą pomóc w przeglądaniu Copilot dzienników konwersacji, aby zrozumieć różne zapytania używane do wyszukiwania treści ekstremistycznych, porównywać trendy w całej branży i doradzać techniki lepszego znajdowania i łagodzenia szkód.
Więcej informacji na temat naszego podejścia do bezpieczeństwa można znaleźć w notatce na temat przejrzystości.
Co zrobić, jeśli widzę nieoczekiwaną lub obraźliwą zawartość?
Mimo że zaprojektowaliśmy środowisko Copilot, aby uniknąć udostępniania nieoczekiwanej obraźliwej zawartości lub angażowania się w potencjalnie szkodliwe tematy, nadal mogą pojawić się nieoczekiwane wyniki. Nieustannie pracujemy nad ulepszaniu naszej technologii, aby zapobiegać szkodliwym treściom.
Jeśli napotkasz szkodliwą lub nieodpowiednią zawartość, przekaż opinię lub zgłoś problem, klikając pozycję "Przekaż opinię" w ustawieniach lub użyj ikony flagi pod każdą odpowiedzią w aplikacji mobilnej i Copilot stronę internetową. W aplikacji mobilnej Copilot możesz również długo nacisnąć odpowiedź i wybrać pozycję "Zgłoś". Będziemy nadal przeglądać Twoją opinię, aby zapewnić bezpieczne środowisko.
W jaki sposób ludzki przegląd Copilot konwersacji poprawia Twoje wrażenia?
Wyszkoleni eksperci od SI mogą przeglądać Copilot konwersacje, aby tworzyć, oceniać i poprawiać dokładność i bezpieczeństwo naszych modeli AI. Korzystamy z ludzkich opinii, aby zapewnić jakość wyjściową do monitu użytkownika, ulepszając Twoje środowisko. Twoje dane pozostają prywatne podczas korzystania z naszych usług. Będziemy chronić Twoje dane osobowe, jak wyjaśniono w oświadczeniu o ochronie prywatności firmy Microsoft oraz zgodnie z przepisami dotyczącymi prywatności na całym świecie.
Czasami czuje się jak Copilot jest inna osoba. Dlaczego?
Copilot został zaprojektowany tak, aby był pomocnym Pomocnik AI, ponieważ reaguje, konwersuje i ma świadomość kontekstu. Może rozmawiać z Tobą w codziennym języku, szybko odpowiadać i odwoływać się do informacji, które zostały już udostępnione. Za pomocą rozwiązania Copilot możesz odpowiadać na pytania, znajdować informacje, pomagać w pisaniu i prowadzić cię przez zadania. Copilot został opracowany, aby czuć się intuicyjny i wspierający. Te cechy mogą tworzyć interakcje z Pomocnik AI poczuć się jak naturalna rozmowa ze współpracownikiem lub przyjacielem.
Jednak ważne jest, aby pamiętać, że Copilot jest narzędziem, a nie osobą i nie ma własnych opinii lub emocji. Jest to system oprogramowania, który generuje odpowiedzi przez wykrywanie wzorców w danych i może nie mieć pełnego kontekstu świata rzeczywistego. Copilot nie zawsze może mieć właściwą odpowiedź, szczególnie w sytuacjach złożonych i emocjonalnych, lub innych obszarach, w których może mieć niewystarczające dane. To tutaj możesz wspierać Cię w podejmowaniu własnych decyzji, a nie ich zastępowaniu.
Czasami moje rozmowy z Copilot czują się mylące lub emocjonalnie ciężkie. Co mam zrobić?
Jeśli czat zawsze sprawia wrażenie mylącego lub ciężkiego emocjonalnie, warto poświęcić trochę czasu na wstrzymanie się i zastanowienie. Możesz również skontaktować się z kimś, komu ufasz, jeśli kiedykolwiek nie masz pewności co do niczego, co Copilot powiedział lub jak czujesz się o interakcji; może to obejmować znajomych, rodzinę, ludzi, których znasz ze swojej społeczności, doradców lub innych specjalistów.