Przejdź do głównej zawartości
Pomoc techniczna
Zaloguj się przy użyciu konta Microsoft
Zaloguj się lub utwórz konto.
Witaj,
Wybierz inne konto.
Masz wiele kont
Wybierz konto, za pomocą którego chcesz się zalogować.

Ostatnia aktualizacja: luty 2024 r.

Podstawy Copilot w Bing   

Wprowadzenie  

W lutym 2023 r. firma Microsoft wprowadziła na rynek nową usługę Bing — ulepszone wyszukiwanie w sieci Web dzięki interfejsowi AI. Obsługuje użytkowników poprzez podsumowywanie wyników wyszukiwania w sieci Web i zapewnianie czatu. Użytkownicy mogą również generować treści twórcze, takie jak wiersze, dowcipy, historie i obrazy w usłudze Bing Kreator Obrazów. Nowa usługa Bing z ulepszoną interfejsem AI korzysta z różnych zaawansowanych technologii firmy Microsoft i OpenAI, w tym GPT-4, najnowocześniejszego, dużego modelu językowego (LLM) i DALL-E, modelu głębokiej nauki do generowania obrazów cyfrowych z opisów w języku naturalnym, zarówno z OpenAI. Pracowaliśmy z obydwoma modelami przez wiele miesięcy przed publicznym wydaniem, aby opracować dostosowany zestaw możliwości i technik, aby dołączyć do tej najnowocześniejszych technologii AI i wyszukiwania w Internecie w nowej usłudze Bing.  W listopadzie 2023 r. firma Microsoft zmieniła nazwę nowej usługi Bing na Copilot w usłudze Bing.

W firmie Microsoft poważnie traktujemy nasze zobowiązanie do odpowiedzialnej SI. Środowisko Copilot w usłudze Bing zostało opracowane zgodnie z zasadami AI firmy Microsoft, odpowiedzialnymi standardami AI firmy Microsoft oraz we współpracy z odpowiedzialnymi ekspertami WI w całej firmie, w tym z Biurem Odpowiedzialnej AI firmy Microsoft, naszymi zespołami inżynierskimi, firmami Microsoft Research i Aether. Więcej informacji na temat odpowiedzialnej si przez firmę Microsoft można znaleźć tutaj.  

W tym dokumencie opisano nasze podejście do odpowiedzialnej AI dla Copilot w usłudze Bing. Przed wydaniem wdrożyliśmy najnowocześniejsze metody identyfikacji, mierzenia i ograniczania potencjalnych zagrożeń i niewłaściwego użytkowania systemu oraz zapewnienia użytkownikom jego korzyści. Od czasu wydania po raz pierwszy copilot w usłudze Bing stale się rozwija, a także uczymy się i ulepszamy nasze odpowiedzialne wysiłki w zakresie AI. Ten dokument będzie okresowo aktualizowany w celu informowania nas o zmieniających się procesach i metodach.   

Najważniejsze terminy  

Copilot w usłudze Bing to ulepszone wyszukiwanie w Sieci Web dzięki interfejsowi AI. W miarę jak działa ona na zaawansowanej, nowej technologii, zaczynamy od zdefiniowania niektórych kluczowych terminów.  

Modele uczenia maszynowego ułatwiające sortowanie danych do oznaczonych zajęć lub kategorii informacji. W usłudze Copilot w usłudze Bing jednym ze sposobów, w jaki używamy klasyfikatorów, jest pomoc w wykrywaniu potencjalnie szkodliwej zawartości przesyłanej przez użytkowników lub wygenerowanej przez system w celu ograniczenia generowania tej zawartości oraz niewłaściwego użycia lub nadużycia systemu. 

Copilot w usłudze Bing jest zakorzeniony w wynikach wyszukiwania w Internecie, gdy użytkownicy szukają informacji. Oznacza to, że wyśrodkujemy odpowiedź udzieloną na zapytanie użytkownika lub monit dotyczący zawartości o wysokiej rangi z sieci Web i udostępniamy linki do witryn internetowych, aby użytkownicy mogli dowiedzieć się więcej. Usługa Bing klasyfikuje zawartość wyszukiwania w Internecie, w dużym stopniu ważąc funkcje, takie jak istotność, jakość i wiarygodność oraz aktualność. Opiszemy te pojęcia bardziej szczegółowo w artykule Jak usługa Bing dostarcza Search wyników (zobacz "Jakość i wiarygodność" w sekcji "Jak usługa Bing ocenia Search wyniki").   

Firma Copilot w usłudze Bing uznaje odpowiedzi uziemione za odpowiedzi, w których instrukcje są obsługiwane przez informacje zawarte w źródłach wejściowych, takie jak wyniki wyszukiwania w Internecie z zapytania lub monitu, baza wiedzy informacji sprawdzanych przez usługę Bing, a w przypadku czatu — historię ostatnich konwersacji z czatu. Odpowiedzi bez planu to odpowiedzi, w których instrukcja nie jest zakorzeniona w tych źródłach wejściowych.  

Duże modele językowe (LLMs) w tym kontekście są modelami AI przeszkolonymi na dużych ilościach danych tekstowych w celu przewidywania wyrazów w sekwencjach. Llms są w stanie wykonywać różne zadania, takie jak generowanie tekstu, podsumowanie, tłumaczenie, klasyfikacja i nie tylko.  

Metaprompt to program, który służy do kierowania zachowaniem systemu. Części metapromptu ułatwiają dostosowanie zachowania systemu do zasad microsoft ai i oczekiwań użytkowników. Na przykład metaprompt może zawierać wiersz, na przykład "komunikuj się w wybranym języku użytkownika".  

Metoda lub kombinacja metod zaprojektowanych w celu zmniejszenia potencjalnego ryzyka, które może powstać w wyniku używania funkcji opartych na SI w copilot w usłudze Bing.  

Tekst, głos, obrazy i/lub inne włączone zapytania wysyłane przez użytkownika do usługi Bing jako dane wejściowe do modelu, który zasila nowe środowiska generujące oparte na SI w usłudze Bing. Na przykład użytkownik może wprowadzić następujący monit:  

"Planuję wyjazd na naszą rocznicę we wrześniu. Jakie są miejsca, do których możemy się udać, które znajdują się w ciągu 3 godzin lotu od Londynu Heathrow?”  

Tekst wysyłany przez użytkownika do usługi Bing z paska wyszukiwania wyszukiwania w sieci Web. W tym dokumencie odróżniamy zapytanie (dla wyszukiwania w sieci Web) od monitu (w przypadku środowisk generacyjnych opartych na SI w usłudze Bing). Na przykład użytkownik może wprowadzić następujące zapytanie do przeszukiwania sieci Web:  

"miejsca podróży w pobliżu lotniska London Heathrow"  

Techniki używane przez ekspertów do oceny ograniczeń i luk systemu oraz do testowania skuteczności planowanych środków łagodzących. Testy zespołu czerwonego i testy warunków skrajnych służą do identyfikowania potencjalnych zagrożeń i różnią się od systematycznego pomiaru ryzyka.   

Tekst, obraz, wykresy itp., które copilot w usłudze Bing wyświetla w odpowiedzi na monit. Synonimy "odpowiedzi" obejmują wyrazy "zakończenie", "generowanie" i "odpowiedź". Na przykład usługa Bing może udzielić następującej odpowiedzi na monit użyty w powyższej definicji monitu:   

"Gratulujemy rocznicy! Istnieje wiele miejsc, które można wybrać się w ciągu 3 godzin lotu z Londynu Heathrow. Według jednego ze źródeł, niektóre weekendowe ucieczki w ciągu trzech godzin samolotem z Londynu to Bilbao, Kopenhaga, Reykjavik i Sztokholm 1, 2. Inne źródło sugeruje, że jednymi z najlepszych miejsc do odwiedzenia w Europie we wrześniu są Kraków, Florencja i Lizbona 3, 4. Możesz również sprawdzić bezpośrednie loty z Londynu Heathrow do różnych miejsc docelowych i zobaczyć, co cię podoba 5. Mam nadzieję, że masz wspaniałą podróż!”  

Zamierzone zastosowania i nowe środowiska SI  

Rozwiązania Copilot w przeznaczeniu usługi Bing umożliwiają łączenie użytkowników z odpowiednimi wynikami wyszukiwania, przeglądanie wyników z sieci Web w celu znajdowania i podsumowywania odpowiedzi, których szukają użytkownicy, ułatwiają użytkownikom uściślanie badań w celu uzyskania odpowiedzi za pomocą czatu i pobudzają kreatywność, pomagając użytkownikom w tworzeniu zawartości. Copilot w generowanej sztucznej inteligencji Bing doświadczenia poniżej wspierać cel jest ai-powered copilot dla sieci web.  

Podsumowania. Gdy użytkownicy przesyłają zapytanie wyszukiwania w witrynie Copilot w usłudze Bing, system Bing przetwarza zapytanie, przeprowadza co najmniej jedno wyszukiwanie w Internecie i używa najlepszych wyników wyszukiwania w Sieci Web w celu wygenerowania podsumowania informacji prezentujących użytkownikom. Te podsumowania zawierają odwołania ułatwiające użytkownikom przeglądanie i łatwe uzyskiwanie dostępu do wyników wyszukiwania, które ułatwiają uziemienie podsumowania. Podsumowania mogą być wyświetlane po prawej stronie strony wyników wyszukiwania i w środowisku czatu.  

Środowisko czatu. Oprócz podsumowania użytkownicy mogą rozmawiać z copilotem w systemie Bing za pomocą tekstu, obrazu lub poleceń głosowych, zadawać kolejne pytania w celu wyjaśnienia wyszukiwania i znajdowania nowych informacji oraz przesyłać monity o wygenerowanie kreatywnej zawartości. Odwołania są również zawarte w środowisku czatu, gdy copilot w usłudze Bing podsumowuje wyniki wyszukiwania w odpowiedzi.   

Generowanie kreatywnej zawartości. Zarówno w środowisku czatu, jak i na stronie wyszukiwania użytkownicy mogą tworzyć wiersze, dowcipy, historie, obrazy i inną zawartość z pomocą rozwiązania Copilot w usłudze Bing.  Obrazy są tworzone przez Designer (dawny Kreator Obrazów Bing), a użytkownicy mogą uzyskać dostęp do funkcji za pośrednictwem strony głównej Designer, a także strony Copilot. 

Jak działa copilot w usłudze Bing?  

Dzięki rozwiązaniu Copilot w usłudze Bing opracowaliśmy innowacyjne podejście, aby wprowadzić najnowocześniejsze maszyny llms do wyszukiwania w Internecie. Gdy użytkownik wprowadzi monit w usłudze Copilot w usłudze Bing, monit, historia ostatnich konwersacji, metaprompt i najlepsze wyniki wyszukiwania są wysyłane jako dane wejściowe do usługi LLM. Model generuje odpowiedź za pomocą monitu użytkownika i historii ostatnich konwersacji w celu kontekstowego zastosowania żądania, metapromptu do dopasowania odpowiedzi do zasad microsoft ai i oczekiwań użytkowników, a także wyników wyszukiwania do podstawowych odpowiedzi w istniejącej, wysokiej rangi zawartości z sieci Web.   

Odpowiedzi są przedstawiane użytkownikom w kilku różnych formatach, takich jak tradycyjne linki do zawartości sieci Web, podsumowania generowane przez AI, obrazy i odpowiedzi na czacie. Podsumowania i odpowiedzi na czacie, które opierają się na wynikach wyszukiwania w Sieci Web, obejmują odwołania i sekcję "Dowiedz się więcej" poniżej odpowiedzi z linkami do wyników wyszukiwania, które zostały użyte do uziemienia odpowiedzi. Użytkownicy mogą kliknąć te linki, aby dowiedzieć się więcej o temacie i informacjach używanych do uziemienia podsumowania lub odpowiedzi czatu.    

W środowisku rozwiązania Copilot użytkownicy mogą przeprowadzać konwersacje w sieci Web, dodając kontekst do monitów i komunikując się z odpowiedziami systemowymi w celu dalszego określenia swoich zainteresowań wyszukiwania. Na przykład użytkownik może zadawać kolejne pytania, żądać dodatkowych informacji wyjaśniających lub odpowiadać systemowi w sposób konwersacyjny. W środowisku czatu użytkownicy mogą również wybrać odpowiedź z wstępnie napisanych sugestii, które nazywamy sugestiami czatu. Te przyciski są wyświetlane po każdej odpowiedzi od rozwiązania Copilot i zawierają sugerowane monity o kontynuowanie konwersacji w ramach czatu. Sugestie czatu są również wyświetlane obok podsumowanej zawartości na stronie wyników wyszukiwania jako punkt wejścia do czatu.  

Copilot w usłudze Bing pozwala również użytkownikowi tworzyć historie, wiersze, teksty piosenek i obrazy z pomocą usługi Bing. Gdy copilot w usłudze Bing wykryje zamiar użytkownika, aby wygenerować kreatywną zawartość (na przykład monit zaczyna się od "write me a ..."), system w większości przypadków wygeneruje zawartość reagującą na monit użytkownika. Podobnie, gdy copilot w usłudze Bing wykryje zamiar wygenerowania obrazu (na przykład monit zaczyna się od "draw me a ..."), system w większości przypadków wygeneruje obraz reagujący na monit użytkownika. W Search wizualnej w środowisku czatu z obrazem wykonanym przez kamerę użytkownika, przekazanym z urządzenia użytkownika lub połączonym z siecią Web użytkownicy mogą wyświetlić monit copilot w usłudze Bing, aby zrozumieć kontekst, interpretować i odpowiadać na pytania dotyczące obrazu.  Użytkownicy mogą również przekazywać swoje pliki do rozwiązania Copilot, aby interpretować, konwertować, przetwarzać lub obliczać na ich podstawie informacje. W środowisku Microsoft Designer, do których użytkownicy mogą uzyskać dostęp za pośrednictwem rozwiązania Copilot w usłudze Bing, użytkownicy mogą nie tylko generować obrazy za pomocą monitów, ale także zmieniać ich rozmiary lub zmieniać ich rozmiary lub wprowadzać zmiany, takie jak rozmycie tła lub zwiększanie żywszych kolorów. 

Użytkownicy z kontami Microsoft (MSA) mają teraz również możliwość subskrybowania Copilot Pro, który oferuje ulepszone środowisko, w tym przyspieszoną wydajność, szybsze tworzenie obrazów AI, a wkrótce możliwość tworzenia własnych gpt Copilot. Copilot Pro jest obecnie dostępna w ograniczonych krajach i planujemy udostępnić Copilot Pro na kolejnych rynkach wkrótce.

W środowisku copilot użytkownicy mogą uzyskiwać dostęp do gpts Copilot. Copilot GPT, podobnie jak Designer GPT, to niestandardowa wersja rozwiązania Microsoft Copilot na temat, który jest dla Ciebie szczególnie interesujący, na przykład fitness, podróże i gotowanie, które mogą pomóc przekształcić niejasne lub ogólne pomysły w bardziej szczegółowe monity z wynikami, w tym tekstami i obrazami. W programie Copilot użytkownicy mogą wyświetlać dostępne gpt copilot, a użytkownicy z kontami Copilot Pro wkrótce będą mieli dostęp do Konstruktora gpt copilot, funkcji, która pozwala użytkownikom na tworzenie i konfigurowanie niestandardowego gpt copilot. Opisane powyżej środki łagodzące odpowiedzialną SI dotyczą układów GPT Copilot w usłudze Bing.

Aby dowiedzieć się więcej o tym, jak działają Copilot Pro i gpts Copilot, odwiedź tutaj.

Copilot w usłudze Bing stara się dostarczać zróżnicowane i kompleksowe wyniki wyszukiwania z zaangażowaniem na rzecz bezpłatnego i otwartego dostępu do informacji. Jednocześnie nasze działania na rzecz jakości produktu obejmują działania mające na celu uniknięcie nieumyślnego promowania potencjalnie szkodliwej zawartości użytkownikom. Więcej informacji o tym, jak usługa Bing ocenia zawartość, w tym jak definiuje istotność oraz jakość i wiarygodność strony internetowej, jest dostępnych w "Wytycznych dla webmasterów Bing".   Więcej informacji na temat zasad moderowania zawartości w usłudze Bing można znaleźć w temacie "Jak usługa Bing dostarcza wyniki wyszukiwania".   

W środowisku copilot w systemie Windows rozwiązania Copilot w usłudze Bing mogą współdziałać z systemem operacyjnym Windows w celu zapewnienia specyficznych dla systemu Windows umiejętności, takich jak zmienianie motywu lub tła użytkownika, a także zmienianie ustawień, takich jak dźwięk, Bluetooth i sieci. Te środowiska umożliwiają użytkownikowi skonfigurowanie ustawień i poprawę środowiska użytkownika przy użyciu monitów języka naturalnego do usługi llm. Funkcje specyficzne dla aplikacji mogą być również udostępniane z wtyczek aplikacji innych firm. Mogą one automatyzować powtarzające się zadania i osiągać większą wydajność użytkownika. Od czasu do czasu llms może popełnić błędy, odpowiednie monity potwierdzenia użytkownika są dostarczane tak, że użytkownik jest ostatecznym arbitrem zmian, które mogą być wprowadzone. 

Identyfikowanie, mierzenie i ograniczanie ryzyka  

Podobnie jak inne technologie transformacyjne, wykorzystanie korzyści wynikających z AI nie jest wolne od ryzyka, a podstawową częścią odpowiedzialnego programu microsoftowej inteligencji jest identyfikowanie potencjalnych zagrożeń, mierzenie ich skłonności do wystąpienia i tworzenie środków łagodzących w celu ich rozwiązania. Kierując się naszymi zasadami ai i odpowiedzialnym standardem AI, staraliśmy się zidentyfikować, zmierzyć i ograniczyć potencjalne zagrożenia i niewłaściwe wykorzystanie Copilot w Bing, zapewniając jednocześnie transformacyjne i korzystne zastosowania, jakie zapewnia nowe doświadczenie. W poniższych sekcjach opisano nasze iteracyjne podejście do identyfikowania, pomiaru i ograniczania potencjalnych zagrożeń.   

Na poziomie modelu nasze prace rozpoczęły się od analiz eksploracyjnych GPT-4 późnym latem 2022 roku. Obejmowało to przeprowadzenie szeroko zakrojonych testów czerwonego zespołu we współpracy z OpenAI. Testy te miały na celu ocenę działania najnowszej technologii bez żadnych dodatkowych zabezpieczeń. Naszym szczególnym zamiarem w tej chwili było wytwarzanie szkodliwych reakcji, powierzchni potencjalne możliwości niewłaściwego użycia, a także zidentyfikować możliwości i ograniczenia. Nasze połączone wnioski w openai i firmie Microsoft przyczyniły się do rozwoju modeli i, dla nas w firmie Microsoft, poinformowały nas o zagrożeniach i przyczyniły się do wczesnych strategii łagodzenia dla Copilot w usłudze Bing.  

Oprócz testów zespołu czerwonego na poziomie modelu, multidyscypliarny zespół ekspertów przeprowadził liczne rundy testów czerwonego zespołu na poziomie aplikacji na Copilot w Bing AI doświadczeniach, zanim udostępnili je publicznie w naszej ograniczonej wersji zapoznawczej. Ten proces pomógł nam lepiej zrozumieć, w jaki sposób system może być wykorzystywany przez kontradyktoryjne podmioty i poprawić nasze środki łagodzące. Testerzy warunków skrajnych, którzy nie są przeciwnikami, również intensywnie oceniali nowe funkcje usługi Bing pod kątem niedociągnięć i luk w zabezpieczeniach. Po wydaniu nowe środowiska AI w usłudze Bing są zintegrowane z istniejącą infrastrukturą pomiarów i testowania produkcji organizacji Bing. Na przykład testerzy czerwonego zespołu z różnych regionów i środowisk stale i systematycznie próbują naruszyć system, a ich ustalenia są używane do rozszerzania zestawów danych używanych przez usługę Bing do ulepszania systemu.  

Testy zespołu czerwonego i testy warunków skrajnych mogą pojawiać się w wystąpieniach określonych zagrożeń, ale w produkcji użytkownicy będą mieli miliony różnych rodzajów rozmów z Copilot w usłudze Bing. Ponadto konwersacje są wieloekulowe i kontekstowe, a identyfikowanie szkodliwej zawartości w konwersacji jest złożonym zadaniem. Aby lepiej zrozumieć i rozwiązać problem ryzyka w copilot w Bing AI doświadczeniach, opracowaliśmy dodatkowe odpowiedzialne metryki AI specyficzne dla tych nowych środowisk AI do pomiaru potencjalnych zagrożeń, takich jak jailbreaks, szkodliwych treści i zawartości bez planu. Włączyliśmy również pomiary w skali za pośrednictwem częściowo zautomatyzowanych potoków pomiarów. Za każdym razem, gdy produkt się zmienia, są aktualizowane istniejące środki łagodzące lub proponowane są nowe środki łagodzące, aktualizujemy nasze potoki pomiarów, aby ocenić zarówno wydajność produktu, jak i odpowiedzialne metryki AI.  

Jako przykład przykładowy zaktualizowany częściowo zautomatyzowany potok pomiarów szkodliwych treści zawiera dwie główne innowacje: symulację konwersacji i zautomatyzowaną adnotację konwersacji zweryfikowaną przez człowieka. Po pierwsze, odpowiedzialni eksperci od SI skonstruowali szablony, aby przechwycić strukturę i zawartość konwersacji, które mogą powodować różne typy szkodliwych treści. Te szablony zostały następnie przekazane agentowi konwersacji, który wchodził w interakcję jako hipotetyczny użytkownik z Copilot w usłudze Bing, generując symulowane konwersacje. Aby określić, czy te symulowane konwersacje zawierały szkodliwą zawartość, przyjęliśmy wytyczne, które są zwykle używane przez specjalistów lingwisty do oznaczania danych i modyfikowania ich do użycia przez GPT-4 do oznaczania konwersacji na dużą skalę, uściślając wytyczne, dopóki nie dojdzie do znaczącego porozumienia między konwersacjami oznaczonymi modelami a konwersacjami oznaczonymi przez człowieka. Na koniec użyliśmy konwersacji oznaczonych modelem do obliczenia odpowiedzialnej metryki AI, która rejestruje skuteczność rozwiązania Copilot w usłudze Bing w zakresie łagodzenia szkodliwych treści.   

Nasze rurociągi pomiarowe umożliwiają nam szybkie wykonywanie pomiarów pod kątem potencjalnego ryzyka na skalę. W miarę jak identyfikujemy nowe problemy w okresie podglądu i trwających testach czerwonego zespołu, nadal rozszerzamy zestawy pomiarów w celu oceny dodatkowych zagrożeń.  

Ponieważ zidentyfikowaliśmy potencjalne zagrożenia i nadużycia za pośrednictwem procesów, takich jak testy zespołu czerwonego i testy warunków skrajnych, i zmierzyliśmy je za pomocą opisanych powyżej innowacyjnych metod, opracowaliśmy dodatkowe środki łagodzące dla tych, które są stosowane do tradycyjnych wyszukiwań. Poniżej opisano niektóre z tych środków łagodzących. Będziemy nadal monitorować copilot w Bing AI środowiskach w celu poprawy wydajności produktów i środków łagodzących.  

Stopniowe zwalnianie, ciągłe ocenianie. Jesteśmy zaangażowani w uczenie się i ulepszanie naszego odpowiedzialnego podejścia do SI w miarę rozwoju naszych technologii i zachowań użytkowników. Nasza strategia stopniowego udostępniania była podstawową częścią tego, jak bezpiecznie przenosimy naszą technologię z laboratoriów na świat i zobowiązujemy się do celowego, przemyślanego procesu, aby zapewnić korzyści copilot w usłudze Bing. Ograniczenie liczby osób mających dostęp w okresie podglądu pozwoliło nam odkryć, w jaki sposób ludzie korzystają z Copilot w usłudze Bing, w tym w jaki sposób ludzie mogą go nadużywać, abyśmy mogli spróbować złagodzić pojawiające się problemy przed szerszym wydaniem. Na przykład wymagamy od użytkowników uwierzytelnienia się przy użyciu ich konta Microsoft przed uzyskaniem dostępu do pełnego nowego środowiska usługi Bing. Nieuwierzytelnieni użytkownicy mogą uzyskiwać dostęp tylko do ograniczonego podglądu środowiska. Kroki te zniechęcają do nadużyć i pomagają nam (w razie potrzeby) podjąć odpowiednie działania w odpowiedzi na naruszenia kodeksu postępowania.  Codziennie wprowadzamy zmiany w rozwiązaniu Copilot w usłudze Bing, aby poprawić wydajność produktu, ulepszyć istniejące środki łagodzące i wdrożyć nowe środki łagodzące w odpowiedzi na nasze wnioski w okresie podglądu.  

Uziemienie w wynikach wyszukiwania. Jak wspomniano powyżej, Copilot w usłudze Bing ma na celu udzielenie odpowiedzi obsługiwanych przez informacje w wynikach wyszukiwania w sieci Web, gdy użytkownicy szukają informacji. Na przykład system jest dostarczany z tekstem z najlepszych wyników wyszukiwania i instrukcjami za pośrednictwem metapromptu, aby uziemić swoją odpowiedź. Jednak podsumowując zawartość z sieci Web, Copilot w usłudze Bing może dołączyć do odpowiedzi informacje, które nie znajdują się w jego źródłach wejściowych. Innymi słowy, może to spowodować uzyskanie niezaplanowanych wyników. Nasze wczesne oceny wykazały, że wyniki na czacie mogą być bardziej rozpowszechnione w przypadku niektórych typów monitów lub tematów niż inne, takie jak prośba o obliczenia matematyczne, informacje finansowe lub rynkowe (na przykład zarobki firmy, dane o wynikach akcji) oraz informacje, takie jak dokładne daty zdarzeń lub konkretne ceny pozycji. Podczas wyświetlania podsumowanych wyników wyszukiwania, zarówno na stronie wyników wyszukiwania, jak i w trakcie czatu, użytkownicy powinni zawsze zachować ostrożność i korzystać z najlepszych wyników wyszukiwania. Podjęliśmy kilka działań, aby ograniczyć ryzyko nadmiernego polegania użytkowników na nieplanowanej zawartości wygenerowanej w scenariuszach podsumowania i środowiskach rozmów. Na przykład odpowiedzi w usłudze Copilot w usłudze Bing oparte na wynikach wyszukiwania obejmują odwołania do źródłowych witryn internetowych, w których użytkownicy mogą zweryfikować odpowiedź i dowiedzieć się więcej. Użytkownicy otrzymują również wyraźną informację, że komunikują się z systemem sztucznej sztucznej sztucznej interfejsu i powinni sprawdzić materiały ze źródeł wyników w sieci Web, aby pomóc im w oceny ich najlepszych wyników.  

Klasyfikatory oparte na AI i metaprompting w celu złagodzenia potencjalnego ryzyka lub niewłaściwego użycia. Korzystanie z usług llms może spowodować problematyczne treści, które mogą prowadzić do ryzyka lub nieprawidłowego użycia. Przykładami mogą być dane wyjściowe związane z samookaleczeniem, przemocą, zawartością graficzną, własnością intelektualną, niedokładnymi informacjami, nienawistną mową lub tekstem, który może odnosić się do nielegalnych działań. Klasyfikatory i metaprompting to dwa przykłady środków łagodzących wdrożonych w rozwiązaniu Copilot w usłudze Bing w celu zmniejszenia ryzyka wystąpienia tego typu zawartości. Klasyfikatorzy klasyfikują tekst w celu oflagowynia różnych typów potencjalnie szkodliwej zawartości w zapytaniach wyszukiwania, monitach czatu lub wygenerowanych odpowiedziach. Usługa Bing korzysta z klasyfikatorów opartych na interfejsie AI i filtrów zawartości, które mają zastosowanie do wszystkich wyników wyszukiwania i odpowiednich funkcji. zaprojektowaliśmy dodatkowe opcje klasyfikatorów monitów i filtry zawartości przeznaczone specjalnie na rozwiązanie ewentualnych zagrożeń podniesionych przez Copilot w funkcjach usługi Bing. Flagi prowadzą do potencjalnych środków łagodzących, takich jak nie zwracanie użytkownikowi wygenerowanej zawartości, kierowanie użytkownika do innego tematu lub przekierowywanie użytkownika do tradycyjnego wyszukiwania. Metaprompting polega na udzielaniu instrukcji do modelu, aby kierować jego zachowaniem, w tym tak, aby system zachowywał się zgodnie z zasadami AI firmy Microsoft i oczekiwaniami użytkowników. Na przykład metaprompt może zawierać wiersz, na przykład "komunikuj się w wybranym języku użytkownika".   

Ochrona prywatności w usłudze Visual Search w usłudze Copilot w usłudze Bing. Gdy użytkownicy przekażą obraz w ramach monitu o czat, Copilot w usłudze Bing będzie korzystać z technologii rozmycia twarzy przed wysłaniem obrazu do modelu AI. Rozmycie twarzy jest używane do ochrony prywatności osób na obrazie. Technologia rozmycia twarzy opiera się na wskazówkach kontekstowych, aby określić, gdzie rozmyć i spróbuje rozmyć wszystkie twarze. Gdy twarze są zamazane, model AI może porównać wejściowy obraz z obrazami publicznie dostępnymi w Internecie. W rezultacie, na przykład, Copilot w Bing może być w stanie zidentyfikować słynnego koszykarza ze zdjęcia tego gracza na boisku do koszykówki, tworząc reprezentację liczbową, która odzwierciedla numer koszulki gracza, kolor koszulki, obecność obręczy do koszykówki, itp. Copilot w usłudze Bing nie przechowuje liczbowych reprezentacji osób z przekazanych obrazów i nie udostępnia ich innym firmom. Funkcja Copilot w usłudze Bing używa liczbowych reprezentacji obrazów przekazywanych przez użytkowników tylko w celu odpowiadania na monity użytkowników, a następnie są one usuwane w ciągu 30 dni od zakończenia czatu.    

Jeśli użytkownik poprosi copilot w usłudze Bing o informacje na temat przekazanego obrazu, odpowiedzi na czacie mogą odzwierciedlać wpływ rozmycia twarzy na zdolność modelu do dostarczania informacji o przekazanym obrazie. Na przykład Copilot w usłudze Bing może opisać kogoś, kto ma niewyraźną twarz.    

Ograniczanie dryfu konwersacji. W okresie podglądu dowiedzieliśmy się, że bardzo długie sesje rozmów mogą powodować odpowiedzi powtarzające się, niepomocne lub niespójne z Copilotem w zamierzonym tonie usługi Bing. Aby rozwiązać ten problem konwersacji, ograniczyliśmy liczbę kolejek (wymiany, które zawierają zarówno pytanie użytkownika, jak i odpowiedź od Copilot w usłudze Bing) na sesję czatu. Nadal oceniamy dodatkowe podejścia w celu złagodzenia tego problemu.  

Monituj o wzbogacenie. W niektórych przypadkach monit użytkownika może być niejednoznaczny. W takim przypadku rozwiązania Copilot w usłudze Bing mogą korzystać z usługi LLM, aby pomóc w opracowaniu dodatkowych szczegółów w wierszu monitu, aby zapewnić użytkownikom uzyskanie odpowiedzi, których szukają. Takie szybkie wzbogacenie nie polega na żadnej wiedzy użytkownika ani na jego wcześniejszych wyszukiwaniach, lecz na modelu AI. Te poprawione zapytania będą widoczne w historii czatów użytkownika i, podobnie jak w przypadku innych wyszukiwań, można je usuwać za pomocą kontrolek w produktach.  

Interwencje dotyczące projektowania i środowiska użytkownika skoncentrowane na użytkownikach. Projektowanie skoncentrowane na użytkownikach i środowiska użytkowników to podstawowy aspekt podejścia firmy Microsoft do odpowiedzialnej SI. Celem jest wykorzenienie projektu produktu zgodnie z potrzebami i oczekiwaniami użytkowników. Gdy użytkownicy komunikują się z rozwiązaniami Copilot w usłudze Bing po raz pierwszy, oferujemy różne punkty dotykowe zaprojektowane tak, aby pomóc im w zrozumieniu możliwości systemu, ujawnić im, że Copilot w usłudze Bing jest obsługiwany przez sztuczną inteligencję i komunikować ograniczenia. Środowisko zostało zaprojektowane w ten sposób, aby pomóc użytkownikom w maksymalnym wykorzystaniu możliwości rozwiązania Copilot w usłudze Bing i zminimalizowaniu ryzyka nadmiernej zależności. Elementy środowiska pomagają również użytkownikom lepiej zrozumieć rozwiązania Copilot w usłudze Bing i ich interakcje z nim. Obejmują one sugestie czatu specyficzne dla odpowiedzialnej SI (na przykład w jaki sposób usługa Bing korzysta ze SI? Dlaczego copilot w usłudze Bing nie będzie odpowiadać na niektóre tematy?), objaśnienia ograniczeń, sposoby, w jaki użytkownicy mogą dowiedzieć się więcej o tym, jak działa system i raportować opinie, oraz łatwo nawigujące odwołania, które pojawiają się w odpowiedziach, aby pokazać użytkownikom wyniki i strony, na których odpowiedzi są uziemione.  

Ujawnienie SI. Copilot w usłudze Bing udostępnia kilka punktów dotykowych do znaczącego ujawnienia AI, gdzie użytkownicy są powiadamiani o interakcji z systemem AI, a także możliwości, aby dowiedzieć się więcej o Copilot w usłudze Bing. Zapewnianie użytkownikom tej wiedzy może pomóc im uniknąć nadmiernego polegania na SI i poznać mocne strony i ograniczenia systemu.  

Pochodzenie medialne.Microsoft Designer włączyła funkcję "Poświadczenia zawartości", która używa metod kryptograficznych do oznaczania źródła lub "pochodzenia" wszystkich obrazów generowanych przez AI utworzonych na Designer. Funkcja niewidocznego cyfrowego znaku wodnego pokazuje źródło, godzinę i datę oryginalnego utworzenia i nie można zmienić tych informacji. Technologia wykorzystuje standardy ustalone przez Koalicję na rzecz Zawartości i Autentyczności (C2PA), aby dodać dodatkową warstwę zaufania i przejrzystości dla obrazów generowanych przez AI. Firma Microsoft jest współzałożycielką oprogramowania C2PA i współtworzy podstawową technologię pochodzenia zawartości cyfrowej. 

Warunki użytkowania i Kodeks postępowania. Ten zasób służy do używania rozwiązania Copilot w usłudze Bing. Użytkownicy powinni przestrzegać warunków użytkowania i kodeksu postępowania, które między innymi informują ich o dopuszczalnym i niedopuszczalnym użyciu oraz o konsekwencjach naruszenia warunków. Warunki użytkowania udostępniają również dodatkowe informacje dla użytkowników i służą jako przydatne informacje dla użytkowników, aby dowiedzieć się więcej o rozwiązaniach Copilot w usłudze Bing.   

Operacje i szybka reakcja. Korzystamy również z rozwiązania Copilot w trwających procesach monitorowania i operacyjnych usługi Bing, aby rozwiązać problem, gdy Copilot w Bing odbiera sygnały lub otrzymuje raport, wskazujący na możliwe nadużycia lub naruszenia warunków użytkowania lub kodeksu postępowania.  

Opinie, monitorowanie i nadzór. Rozwiązanie Copilot w usłudze Bing bazuje na istniejącym narzędziu, które umożliwia użytkownikom przesyłanie opinii i zgłaszanie obaw, które są sprawdzane przez zespoły operacyjne firmy Microsoft. Procesy operacyjne usługi Bing zostały również rozszerzone, aby uwzględnić funkcje rozwiązania Copilot w usłudze Bing, na przykład aktualizując stronę Zgłoś problem , aby uwzględnić nowe typy zawartości generowanej przez użytkowników przy pomocy modelu.   

Nasze podejście do identyfikowania, pomiaru i ograniczania ryzyka będzie się rozwijać w miarę jak będziemy się uczyć więcej, a my już wprowadzamy ulepszenia na podstawie opinii zebranych w okresie podglądu.     

Automatyczne wykrywanie zawartości. Gdy użytkownicy przesyłają obrazy w ramach monitu czatu, Copilot w usłudze Bing wdraża narzędzia do wykrywania wykorzystywania seksualnego dzieci i obrazów nadużyć (CSEAI), w szczególności technologii dopasowywania skrótów PhotoDNA. Firma Microsoft opracowała aplikację PhotoDNA, aby pomóc w znalezieniu duplikatów znanych plików CSEAI. Firma Microsoft zgłasza wszystkie pozorne CSEAI do National Center for Missing and Exploited Children (NCMEC), zgodnie z wymogami amerykańskiego prawa. Gdy użytkownicy przekazują pliki do analizy lub przetwarzania, copilot wdraża automatyczne skanowanie w celu wykrywania zawartości, która może prowadzić do ryzyka lub niewłaściwego użycia, takiego jak tekst, który może odnosić się do nielegalnych działań lub złośliwego kodu.

Ochrona prywatności  

Wieloletnie przekonanie firmy Microsoft, że prywatność jest podstawowym prawem człowieka, informuje na każdym etapie opracowywania i wdrażania rozwiązania Copilot w środowisku Bing przez firmę Microsoft. Nasze zobowiązania do ochrony prywatności wszystkich użytkowników, w tym poprzez zapewnienie osobom jawności i kontroli nad ich danymi oraz integrowanie prywatności poprzez projektowanie poprzez minimalizację danych i ograniczenie celu, są podstawowym elementem usługi Copilot w usłudze Bing. W miarę jak rozwijamy nasze podejście do dostarczania Copilot w środowiskach generujących AI Bing, będziemy stale badać, jak najlepiej chronić prywatność. Ten dokument będzie aktualizowany w miarę wykonywania tych czynności. Więcej informacji na temat ochrony prywatności naszych użytkowników przez firmę Microsoft można znaleźć w oświadczeniu o ochronie prywatności firmy Microsoft.  

W środowisku Copilot w systemie Windows umiejętności systemu Windows mogą udostępniać informacje o użytkownikach podczas konwersacji na czacie. Podlega to zatwierdzeniu przez użytkownika, a monity interfejsu użytkownika są wyświetlane w celu potwierdzenia zamiaru użytkownika przed udostępnieniem informacji o użytkowniku w konwersacji na czacie.

Firma Microsoft nadal rozważa potrzeby dzieci i młodzieży w ramach oceny ryzyka nowych funkcji generowania SI w copilot w usłudze Bing. Wszystkie konta Microsoft dzieci identyfikujące użytkownika w wieku poniżej 13 lat lub określone w inny sposób zgodnie z lokalnym prawem nie mogą zalogować się, aby uzyskać dostęp do pełnego nowego środowiska usługi Bing.   

Jak opisano powyżej, dla wszystkich użytkowników wdrożyliśmy zabezpieczenia ograniczające potencjalnie szkodliwą zawartość. W copilot w usłudze Bing wyniki są ustawione tak jak w trybie ścisłym Bing SafeSearch, który ma najwyższy poziom ochrony bezpieczeństwa w głównym wyszukiwaniu Bing, uniemożliwiając tym samym użytkownikom, w tym użytkownikom nastolatków, narażenie na potencjalnie szkodliwą zawartość. Oprócz informacji zawartych w tym dokumencie oraz w często zadawanych pytaniach dotyczących funkcji czatu, więcej informacji na temat sposobu działania rozwiązania Copilot w usłudze Bing w celu uniknięcia odpowiadania na nieoczekiwaną obraźliwą zawartość w wynikach wyszukiwania jest dostępna tutaj.  

Firma Microsoft zobowiązała się nie dostarczać spersonalizowanych reklam na podstawie zachowań w Internecie dzieciom, których data urodzenia na ich kontach Microsoft określa ich jako osoby poniżej 18 roku życia. Ta ważna ochrona obejmie reklamy w usłudze Copilot w funkcjach usługi Bing. Użytkownicy mogą wyświetlać reklamy kontekstowe na podstawie zapytania lub monitu używanego do interakcji z usługą Bing.  

Aby odblokować transformacyjny potencjał generowania AI, musimy budować zaufanie do technologii poprzez umożliwienie użytkownikom zrozumienia, w jaki sposób ich dane są wykorzystywane, oraz zapewnienie im znaczących wyborów i kontroli nad ich danymi. Copilot w usłudze Bing ma na celu nadawanie priorytetu ludzkiej agencji poprzez dostarczanie informacji o tym, jak produkt działa, jak również jego ograniczeniach, a także poprzez rozszerzenie naszych solidnych wyborów konsumentów i kontroli na Copilot w funkcjach usługi Bing.   

Zasady zachowania poufności informacji firmy Microsoft zawierają informacje na temat naszych przejrzystych praktyk w zakresie ochrony prywatności w celu ochrony naszych klientów oraz zawierają informacje na temat mechanizmów kontroli, które dają naszym użytkownikom możliwość wyświetlania ich danych osobowych i zarządzania nimi. Aby zapewnić użytkownikom informacje potrzebne podczas interakcji z nowymi funkcjami konwersacji usługi Bing, informacje zawarte w informacjach zawartych w produktach informują użytkowników, że angażują się w produkt AI, oraz udostępniamy linki do dodatkowych często zadawanych pytań i wyjaśnień dotyczących działania tych funkcji. Firma Microsoft będzie nadal słuchać opinii użytkowników i doda więcej szczegółów dotyczących funkcji konwersacji usługi Bing, aby ułatwić zrozumienie sposobu działania produktu.   

Firma Microsoft udostępnia również swoim użytkownikom zaawansowane narzędzia do wykonywania swoich praw w stosunku do swoich danych osobowych. W przypadku danych gromadzonych przez firmę Copilot w usłudze Bing, w tym za pośrednictwem zapytań użytkowników i monitów, pulpit nawigacyjny prywatności firmy Microsoft udostępnia uwierzytelnionym (zalogowanym) użytkownikom narzędzia do wykonywania przysługujących im praw podmiotu danych, w tym przez zapewnienie użytkownikom możliwości wyświetlania, eksportowania i usuwania przechowywanej historii konwersacji. Firma Microsoft nadal analizuje opinie na temat sposobu zarządzania nowym środowiskami usługi Bing, w tym poprzez korzystanie z funkcji zarządzania danymi w kontekście.   

Copilot w usłudze Bing uwzględnia również żądania wynikające z europejskiego prawa do bycia zapomnianym, w następstwie procesu, który firma Microsoft opracowała i udoskonaliła dla tradycyjnej funkcjonalności wyszukiwania Bing. Wszyscy użytkownicy mogą zgłaszać tutaj obawy dotyczące wygenerowanej zawartości i odpowiedzi, a nasi europejscy użytkownicy mogą za pomocą tego formularza przesyłać żądania blokowania wyników wyszukiwania w Europie w ramach prawa do bycia zapomnianym.   

Usługa Copilot w usłudze Bing będzie honorować opcje prywatności użytkowników, w tym te, które zostały wcześniej wprowadzone w usłudze Bing, takie jak zgoda na gromadzenie i używanie danych wymagane za pośrednictwem banerów cookie i kontrolek dostępnych na pulpicie nawigacyjnym prywatności firmy Microsoft. Aby ułatwić autonomię użytkownika i agencję w podejmowaniu świadomych decyzji, użyliśmy naszego wewnętrznego procesu przeglądu w celu dokładnego zbadania sposobu przedstawiania użytkownikom wyborów. 

Oprócz kontrolek dostępnych za pośrednictwem pulpitu nawigacyjnego prywatności firmy Microsoft, które umożliwiają użytkownikom wyświetlanie, eksportowanie i usuwanie historii wyszukiwania, w tym składników historii czatów, uwierzytelnieni użytkownicy, którzy włączyli funkcję Historia czatu w produkcie, mają możliwość wyświetlania, uzyskiwania dostępu do historii czatów i pobierania jej za pośrednictwem kontrolek w produktach. Użytkownicy mogą wyczyścić określone czaty z historii czatu lub całkowicie wyłączyć funkcję Historia czatu w dowolnym momencie, odwiedzając stronę Ustawienia usługi Bing. Użytkownicy mogą również zdecydować, czy zezwolić personalizacji na dostęp do bardziej dostosowanego środowiska za pomocą spersonalizowanych odpowiedzi. Użytkownicy mogą w dowolnym momencie zrezygnować z personalizacji w ustawieniach czatu na stronie Ustawienia usługi Bing.  Wyczyszczenie określonych czatów z historii czatu uniemożliwia ich używanie do personalizacji.  
 
Więcej informacji na temat historii czatu i personalizacji są udostępniane użytkownikom w copilot w usłudze Bing — często zadawane pytania

Copilot w usłudze Bing został zbudowany z myślą o prywatności, dzięki czemu dane osobowe są zbierane i używane tylko w razie potrzeby i nie są przechowywane dłużej, niż jest to konieczne. Jak wspomniano powyżej, funkcja Visual Search w copilot w usłudze Bing wdraża mechanizm, który rozmywa twarze na obrazach w momencie przekazywania przez użytkowników, dzięki czemu obrazy twarzy nie są dalej przetwarzane ani przechowywane. Więcej informacji na temat danych osobowych gromadzonych przez usługę Bing, sposobu ich użycia oraz sposobu ich przechowywania i usuwania jest dostępnych w zasadach zachowania poufności informacji firmy Microsoft, które zawierają również informacje o nowych funkcjach czatu w usłudze Bing.   

Usługa Copilot w usłudze Bing ma zasady przechowywania i usuwania danych, aby zapewnić, że dane osobowe gromadzone za pośrednictwem funkcji czatu usługi Bing są przechowywane tylko tak długo, jak to konieczne.   

Będziemy nadal uczyć się i rozwijać nasze podejście w zakresie zapewniania Rozwiązania Copilot w usłudze Bing, a tak jak to robimy, będziemy nadal pracować w różnych dyscyplinach, aby dostosować nasze innowacje w dziedzinie AI do wartości ludzkich i praw podstawowych, w tym ochrony młodych użytkowników i prywatności.   

Copilot z komercyjną ochroną danych 

Usługa Copilot z komercyjną ochroną danych, wcześniej znana jako Bing Chat Enterprise ("BCE"), została wydana przez firmę Microsoft w bezpłatnej publicznej wersji zapoznawczej w lipcu 2023 r. jako bezpłatny dodatek dla niektórych klientów korzystających z usługi M365. Rozwiązania Copilot z komercyjną ochroną danych to ulepszone wyszukiwanie w sieci Web przez AI dla użytkowników końcowych przedsiębiorstw. 

Podobnie jak w przypadku rozwiązania Copilot w usłudze Bing, gdy użytkownik końcowy copilot z komercyjną ochroną danych wprowadza monit do interfejsu, monit, natychmiastowa konwersacja, najważniejsze wyniki wyszukiwania i metaprompt są wysyłane jako dane wejściowe do llm. Model generuje odpowiedź za pomocą monitu i bezpośredniej historii konwersacji w celu kontekstuzwalizacji żądania, metapromptu w celu dopasowania odpowiedzi do zasad microsoft ai i oczekiwań użytkowników oraz wyników wyszukiwania do podstawowych odpowiedzi w istniejącej, wysokiej rangi zawartości z sieci Web. Działa to tak samo jak copilot w usłudze Bing, jak opisano powyżej w tym dokumencie, z wyjątkiem tego, że Copilot z komercyjną ochroną danych opiera się tylko na historii bezpośrednich konwersacji (nie na historii ostatnich konwersacji) ze względu na zapisaną historię czatu, która nie jest obecnie obsługiwana. Designer i Search wizualne są teraz dostępne w tej wersji. 

Podobnie jak inne technologie transformacyjne, wykorzystanie korzyści wynikających z AI nie jest wolne od ryzyka, a podstawową częścią odpowiedzialnego programu microsoftowej inteligencji jest identyfikowanie potencjalnych zagrożeń, mierzenie ich skłonności do wystąpienia i tworzenie środków łagodzących w celu ich rozwiązania. W dalszej części powyższego opisu działań firmy Microsoft mających na celu identyfikację, mierzenie i ograniczanie potencjalnych zagrożeń dla rozwiązania Copilot w usłudze Bing również ma zastosowanie do tej wersji, z pewnymi objaśnieniami w zakresie środków łagodzących opisanymi poniżej: 

Stopniowe zwalnianie, ciągłe ocenianie. Podobnie jak w przypadku Copilot Bing, w przypadku Copilot z komercyjną ochroną danych podjęliśmy również stopniowe podejście do udostępniania. W dniu 18 lipca 2023 r. usługa Copilot z komercyjną ochroną danych została udostępniona jako bezpłatna wersja zapoznawcza dla uprawnionych klientów korporacyjnych z określonymi kontami M365 do włączenia dla użytkowników końcowych przedsiębiorstw. Trzydzieści (30) dni po powiadomieniu uprawnionych klientów korporacyjnych, Copilot z komercyjną ochroną danych stał się "domyślnie włączony" dla tych samych klientów. Od tego czasu copilot z komercyjną ochroną danych jest również dostępny dla konkretnych kont edukacyjnych M365. 1 grudnia 2023 r. firma Copilot z komercyjną ochroną danych stała się ogólnie dostępna dla niektórych klientów korporacyjnych. W przyszłości planujemy rozszerzyć dostęp do rozwiązania Copilot o komercyjną ochronę danych o więcej użytkowników Tożsamość Microsoft Entra.

Warunki użytkowania i Kodeks postępowania. Użytkownicy końcowi firmy Copilot mającej komercyjną ochronę danych muszą przestrzegać Warunków użytkowania użytkownika końcowego. Niniejsze Warunki użytkowania informują użytkowników końcowych o dopuszczalnych i niedopuszczalnych zastosowaniach oraz o konsekwencjach naruszenia warunków.  

Operacje i szybka reakcja. Korzystamy również z rozwiązania Copilot w trwających procesach monitorowania i operacyjnych usługi Bing, aby rozwiązać problem, gdy Copilot z komercyjną ochroną danych odbiera sygnały lub otrzymuje raport, wskazujący na możliwe nadużycia lub naruszenia Warunków użytkowania użytkownika końcowego

Opinie, monitorowanie i nadzór. Rozwiązanie Copilot z komercyjną ochroną danych korzysta z tego samego narzędzia co rozwiązania Copilot w usłudze Bing, aby użytkownicy przesyłali opinie i zgłaszali obawy, które są sprawdzane przez zespoły operacyjne firmy Microsoft. Rozwiązania Copilot w procesach operacyjnych usługi Bing zostały również rozszerzone, aby uwzględnić funkcje rozwiązania Copilot z komercyjnymi środowiskami ochrony danych, na przykład aktualizując stronę Report a Concern w celu uwzględnienia nowych typów zawartości generowanych przez użytkowników przy pomocy modelu.  

Aby zapewnić użytkownikom końcowym dostęp do potrzebnych informacji podczas interakcji z firmą Copilot w zakresie komercyjnej ochrony danych, u dołu tego dokumentu znajduje się dokumentacja produktu, w tym często zadawane pytania i strony Dowiedz się więcej. 

Monity i odpowiedzi generowane przez użytkowników końcowych w rozwiązaniach Copilot z komercyjną ochroną danych są przetwarzane i przechowywane zgodnie ze standardami obsługi danych przedsiębiorstwa. Oferta Copilot z komercyjną ochroną danych jest obecnie dostępna tylko dla klientów korporacyjnych i ich uwierzytelnionych dorosłych użytkowników końcowych, dlatego obecnie nie przewidujemy, aby dzieci i młodzież były użytkownikami końcowymi firmy Copilot z komercyjną ochroną danych. Ponadto rozwiązania Copilot z komercyjną ochroną danych nie zapewniają użytkownikom końcowym żadnych reklam ukierunkowanych behawioralnie. Zamiast tego wszystkie wyświetlane reklamy są tylko reklamy kontekstowe.  

Dowiedz się więcej

Ten dokument jest częścią szerszych wysiłków firmy Microsoft na rzecz wprowadzenia naszych zasad AI w życie. Aby dowiedzieć się więcej, zobacz:

Podejście firmy Microsoft do odpowiedzialnej SI

Odpowiedzialna SI Firmy Microsoft Standard

Zasoby odpowiedzialnej SI firmy Microsoft  

Kursy Microsoft Azure Learning dotyczące odpowiedzialnej SI  

Informacje o tym dokumencie  

© 2023 Microsoft. Wszelkie prawa zastrzeżone. Ten dokument jest dostarczany "w takiej postaci, w jakim jest" i służy jedynie celom informacyjnym. Informacje i widoki wyrażone w tym dokumencie, w tym adresy URL i inne odwołania do witryn internetowych, mogą ulec zmianie bez powiadomienia. Odpowiedzialność związaną z używaniem oprogramowania ponosi użytkownik. Niektóre przykłady dotyczą tylko ilustracji i są fikcyjne. Żadne rzeczywiste skojarzenie nie jest zamierzone ani wywnioskować.  

Potrzebujesz dalszej pomocy?

Chcesz uzyskać więcej opcji?

Poznaj korzyści z subskrypcji, przeglądaj kursy szkoleniowe, dowiedz się, jak zabezpieczyć urządzenie i nie tylko.

Społeczności pomagają zadawać i odpowiadać na pytania, przekazywać opinie i słuchać ekspertów z bogatą wiedzą.

Czy te informacje były pomocne?

Jaka jest jakość języka?
Co wpłynęło na Twoje wrażenia?
Jeśli naciśniesz pozycję „Wyślij”, Twoja opinia zostanie użyta do ulepszania produktów i usług firmy Microsoft. Twój administrator IT będzie mógł gromadzić te dane. Oświadczenie o ochronie prywatności.

Dziękujemy za opinię!

×