Ostatnia aktualizacja: maj 2024 r.
Podstawy Copilot w usłudze Bing
Copilot w usłudze Bing jest teraz Microsoft Copilot. Zapoznaj się z naszym podejściem do odpowiedzialnej SI w dokumentacji tutaj: Uwaga na temat przejrzystości Microsoft Copilot.
Wprowadzenie
W lutym 2023 r. firma Microsoft wprowadziła na rynek nową usługę Bing — ulepszone wyszukiwanie w sieci Web dzięki interfejsowi AI. Obsługuje użytkowników poprzez podsumowywanie wyników wyszukiwania w sieci Web i zapewnianie czatu. Użytkownicy mogą również generować treści twórcze, takie jak wiersze, dowcipy, historie i obrazy w usłudze Bing Kreator Obrazów. Nowa usługa Bing z ulepszoną interfejsem AI działa na różnych zaawansowanych technologiach firmy Microsoft i OpenAI, w tym GPT, najnowocześniejszym, dużym modelu językowym (LLM) i DALL-E, modelu głębokiej nauki do generowania obrazów cyfrowych z opisów w języku naturalnym, zarówno z OpenAI. Pracowaliśmy z oboma modelami przez wiele miesięcy przed ich publicznym udostępnieniem, aby opracować dostosowany zestaw możliwości i technik, które pozwolą połączyć tę najnowocześniejszą technologię sztucznej inteligencji z wyszukiwaniem w Internecie w nowej usłudze Bing. W listopadzie 2023 r. firma Microsoft zmieniła nazwę nowej usługi Bing na Copilot w usłudze Bing.
W firmie Microsoft poważnie traktujemy nasze zobowiązanie do odpowiedzialnej sztucznej inteligencji. Środowisko Copilot w usłudze Bing zostało opracowane zgodnie z zasadami AI firmy Microsoft, odpowiedzialnymi standardami AI firmy Microsoft oraz we współpracy z odpowiedzialnymi ekspertami w dziedzinie AI w całej firmie, takimi jak Biuro Odpowiedzialnej SI firmy Microsoft, nasze zespoły inżynierskie, Microsoft Research i Aether. Więcej informacji na temat odpowiedzialnej si przez firmę Microsoft można znaleźć tutaj.
W tym dokumencie opisano nasze podejście do odpowiedzialnej SI dla Copilot w usłudze Bing. Przed wydaniem wdrożyliśmy najnowocześniejsze metody identyfikacji, mierzenia i ograniczania potencjalnych zagrożeń i niewłaściwego użytkowania systemu oraz zapewnienia użytkownikom jego korzyści. Ponieważ stale rozwijamy się Copilot w usłudze Bing od czasu wydania po raz pierwszy, nadal uczymy się i ulepszamy nasze odpowiedzialne wysiłki w zakresie AI. Ten dokument będzie okresowo aktualizowany w celu informowania nas o zmieniających się procesach i metodach.
Najważniejsze terminy
Copilot w usłudze Bing to ulepszone wyszukiwanie w sieci Web dzięki interfejsowi AI. W miarę jak działa ona na zaawansowanej, nowej technologii, zaczynamy od zdefiniowania niektórych kluczowych terminów.
Modele uczenia maszynowego ułatwiające sortowanie danych do oznaczonych zajęć lub kategorii informacji. W Copilot w usłudze Bing jednym ze sposobów, w jaki używamy klasyfikatorów, jest pomoc w wykrywaniu potencjalnie szkodliwej zawartości przesyłanej przez użytkowników lub generowanej przez system w celu ograniczenia generowania tej zawartości oraz niewłaściwego wykorzystywania lub nadużywania systemu.
Copilot w usłudze Bing jest zakorzeniona w wynikach wyszukiwania w Sieci Web, gdy użytkownicy szukają informacji. Oznacza to, że wyśrodkujemy odpowiedź udzieloną na zapytanie użytkownika lub monit dotyczący zawartości o wysokiej rangi z sieci Web i udostępniamy linki do witryn internetowych, aby użytkownicy mogli dowiedzieć się więcej. Usługa Bing klasyfikuje zawartość wyszukiwania w Internecie, w dużym stopniu ważąc funkcje, takie jak istotność, jakość i wiarygodność oraz aktualność. Opiszemy te pojęcia bardziej szczegółowo w temacie Sposób dostarczania wyników wyszukiwania przez usługę Bing (zobacz "Jakość i wiarygodność" w sekcji "Jak usługa Bing ocenia wyniki wyszukiwania").
Uznajemy odpowiedzi oparte na podstawach za odpowiedzi od Copilot w usłudze Bing w których instrukcje są obsługiwane przez informacje zawarte w źródłach wejściowych, takie jak wyniki wyszukiwania w Internecie z zapytania lub monitu, baza wiedzy informacji sprawdzanych przez usługę Bing, a w przypadku czatu — najnowszą historię konwersacji z czatu. Odpowiedzi bez planu to odpowiedzi, w których instrukcja nie jest zakorzeniona w tych źródłach wejściowych.
Duże modele językowe (LLMs) w tym kontekście są modelami AI przeszkolonymi na dużych ilościach danych tekstowych w celu przewidywania wyrazów w sekwencjach. Llms są w stanie wykonywać różne zadania, takie jak generowanie tekstu, podsumowanie, tłumaczenie, klasyfikacja i nie tylko.
Metaprompt to program, który służy do kierowania zachowaniem systemu. Części metapromptu ułatwiają dostosowanie zachowania systemu do zasad microsoft ai i oczekiwań użytkowników. Na przykład metaprompt może zawierać wiersz, na przykład "komunikuj się w wybranym języku użytkownika".
Metoda lub kombinacja metod zaprojektowanych w celu zmniejszenia potencjalnego ryzyka, jakie może powstać w wyniku używania funkcji opartych na SI w Copilot w usłudze Bing.
Tekst, głos, obrazy i/lub inne włączone zapytania wysyłane przez użytkownika do usługi Bing jako dane wejściowe do modelu, który zasila nowe środowiska generujące oparte na SI w usłudze Bing. Na przykład użytkownik może wprowadzić następujący monit:
"Planuję wyjazd na naszą rocznicę we wrześniu. Jakie są miejsca, do których możemy się udać, które znajdują się w ciągu 3 godzin lotu od Londynu Heathrow?”
Tekst wysyłany przez użytkownika do usługi Bing z paska wyszukiwania wyszukiwania w sieci Web. W tym dokumencie odróżniamy zapytanie (dla wyszukiwania w sieci Web) od monitu (w przypadku środowisk generacyjnych opartych na SI w usłudze Bing). Na przykład użytkownik może wprowadzić następujące zapytanie do przeszukiwania sieci Web:
"miejsca podróży w pobliżu lotniska London Heathrow"
Techniki używane przez ekspertów do oceny ograniczeń i luk systemu oraz do testowania skuteczności planowanych środków łagodzących. Testy zespołu czerwonego i testy warunków skrajnych służą do identyfikowania potencjalnych zagrożeń i różnią się od systematycznego pomiaru ryzyka.
Tekst, obraz, wykresy itp., które Copilot w usłudze Bing są wyświetlane w odpowiedzi na monit. Synonimy "odpowiedzi" obejmują wyrazy "zakończenie", "generowanie" i "odpowiedź". Na przykład usługa Bing może udzielić następującej odpowiedzi na monit użyty w powyższej definicji monitu:
"Gratulujemy rocznicy! Istnieje wiele miejsc, które można wybrać się w ciągu 3 godzin lotu z Londynu Heathrow. Według jednego ze źródeł, niektóre weekendowe ucieczki w ciągu trzech godzin samolotem z Londynu to Bilbao, Kopenhaga, Reykjavik i Sztokholm 1, 2. Inne źródło sugeruje, że jednymi z najlepszych miejsc do odwiedzenia w Europie we wrześniu są Kraków, Florencja i Lizbona 3, 4. Możesz również sprawdzić bezpośrednie loty z Londynu Heathrow do różnych miejsc docelowych i zobaczyć, co cię podoba 5. Mam nadzieję, że masz wspaniałą podróż!”
Zamierzone zastosowania i nowe środowiska SI
Copilot w usłudze Bing zamierzonym zastosowaniem jest łączenie użytkowników z odpowiednimi wynikami wyszukiwania, przeglądanie wyników z sieci Web w celu znajdowania i podsumowywania odpowiedzi, których szukają użytkownicy, ułatwianie użytkownikom uściślania badań w celu uzyskania odpowiedzi za pomocą czatu i pobudzanie kreatywności poprzez pomaganie użytkownikom w tworzeniu zawartości. Copilot w usłudze Bing generowane środowisko sztucznej inteligencji poniżej wspiera cel bycia copilotem opartym na sztucznej inteligencji dla sieci Web.
Podsumowania. Gdy użytkownicy przesyłają zapytanie wyszukiwania na Copilot w usłudze Bing, system Bing przetwarza zapytanie, przeprowadza co najmniej jedno wyszukiwanie w Sieci Web i używa najlepszych wyników wyszukiwania w Sieci Web w celu wygenerowania podsumowania informacji prezentujących użytkownikom. Te podsumowania zawierają odwołania ułatwiające użytkownikom przeglądanie i łatwe uzyskiwanie dostępu do wyników wyszukiwania, które ułatwiają uziemienie podsumowania. Podsumowania mogą być wyświetlane po prawej stronie strony wyników wyszukiwania i w środowisku czatu.
Środowisko czatu. Oprócz podsumowania użytkownicy mogą rozmawiać na czacie z systemem Copilot w usłudze Bing za pomocą tekstu, obrazu lub poleceń głosowych, zadawać kolejne pytania w celu wyjaśnienia wyszukiwań i znajdowania nowych informacji oraz przesyłać monity o wygenerowanie kreatywnej zawartości. Odwołania są również uwzględniane w środowisku czatu, gdy Copilot w usłudze Bing podsumowuje wyniki wyszukiwania w odpowiedzi.
Generowanie kreatywnej zawartości. Zarówno w środowisku czatu, jak i na stronie wyszukiwania użytkownicy mogą tworzyć wiersze, dowcipy, historie, obrazy i inną zawartość z pomocą Copilot w usłudze Bing. Obrazy są tworzone przez Designer (dawny Kreator Obrazów Bing), a użytkownicy mogą uzyskać dostęp do funkcji za pośrednictwem strony głównej Designer, a także strony Copilot.
Jak działa Copilot w usłudze Bing?
Dzięki Copilot w usłudze Bing opracowaliśmy innowacyjne podejście, aby wprowadzić najnowocześniejsze maszyny llms do wyszukiwania w Internecie. Gdy użytkownik wprowadzi monit w Copilot w usłudze Bing, monit, historia ostatnich konwersacji, metaprompt i najlepsze wyniki wyszukiwania są wysyłane jako dane wejściowe do llm. Model generuje odpowiedź za pomocą monitu użytkownika i historii ostatnich konwersacji w celu kontekstowego zastosowania żądania, metapromptu do dopasowania odpowiedzi do zasad microsoft ai i oczekiwań użytkowników, a także wyników wyszukiwania do podstawowych odpowiedzi w istniejącej, wysokiej rangi zawartości z sieci Web.
Odpowiedzi są przedstawiane użytkownikom w kilku różnych formatach, takich jak tradycyjne linki do zawartości sieci Web, podsumowania generowane przez AI, obrazy i odpowiedzi na czacie. Podsumowania i odpowiedzi na czacie, które opierają się na wynikach wyszukiwania w Sieci Web, obejmują odwołania i sekcję "Dowiedz się więcej" poniżej odpowiedzi z linkami do wyników wyszukiwania, które zostały użyte do uziemienia odpowiedzi. Użytkownicy mogą kliknąć te linki, aby dowiedzieć się więcej o temacie i informacjach używanych do uziemienia podsumowania lub odpowiedzi czatu.
W środowisku rozwiązania Copilot użytkownicy mogą przeprowadzać konwersacje w sieci Web, dodając kontekst do monitów i komunikując się z odpowiedziami systemowymi w celu dalszego określenia swoich zainteresowań wyszukiwania. Na przykład użytkownik może zadawać kolejne pytania, żądać dodatkowych informacji wyjaśniających lub odpowiadać systemowi w sposób konwersacyjny. W środowisku czatu użytkownicy mogą również wybrać odpowiedź z wstępnie napisanych sugestii, które nazywamy sugestiami czatu. Te przyciski są wyświetlane po każdej odpowiedzi od rozwiązania Copilot i zawierają sugerowane monity o kontynuowanie konwersacji w ramach czatu. Sugestie czatu są również wyświetlane obok podsumowanej zawartości na stronie wyników wyszukiwania jako punkt wejścia do czatu.
Copilot w usłudze Bing umożliwia również użytkownikowi tworzenie opowieści, wierszy, tekstów utworów i obrazów z pomocą usługi Bing. Gdy Copilot w usłudze Bing wykryje zamiar użytkownika, aby wygenerować kreatywną zawartość (na przykład monit zaczyna się od "napisz mi ..."), system w większości przypadków wygeneruje zawartość reagującą na monit użytkownika. Podobnie, gdy Copilot w usłudze Bing wykryje zamiar użytkownika wygenerowania obrazu (na przykład monit zaczyna się od "draw me a ..."), system w większości przypadków wygeneruje obraz reagujący na monit użytkownika. W funkcji wyszukiwania wizualnego w trybie czatu z obrazem wykonanym przez kamerę użytkownika, przekazanym z urządzenia użytkownika lub połączonym z siecią Web użytkownicy mogą monitować Copilot w usłudze Bing o zrozumienie kontekstu, interpretowanie i odpowiadanie na pytania dotyczące obrazu. Użytkownicy mogą również przekazywać swoje pliki do rozwiązania Copilot, aby interpretować, konwertować, przetwarzać lub obliczać na ich podstawie informacje. W środowisku Microsoft Designer, do których użytkownicy mogą uzyskiwać dostęp za pośrednictwem Copilot w usłudze Bing, użytkownicy mogą nie tylko generować obrazy za pomocą monitów, ale także zmieniać ich rozmiary lub zmieniać ich rozmiary albo wprowadzać zmiany, takie jak rozmycie tła lub zwiększanie żywszych kolorów.
Użytkownicy z kontami Microsoft (MSA) mają teraz również możliwość subskrybowania Copilot Pro, które oferują ulepszone środowisko, w tym przyspieszoną wydajność i szybsze tworzenie obrazów AI. Copilot Pro jest obecnie dostępna w ograniczonych krajach i planujemy udostępnić Copilot Pro na kolejnych rynkach wkrótce.
Aby dowiedzieć się więcej o Copilot Pro, odwiedź tutaj.
Copilot w usłudze Bing stara się dostarczać zróżnicowane i kompleksowe wyniki wyszukiwania z zaangażowaniem na rzecz bezpłatnego i otwartego dostępu do informacji. Jednocześnie nasze działania na rzecz jakości produktu obejmują działania mające na celu uniknięcie nieumyślnego promowania potencjalnie szkodliwej zawartości użytkownikom. Więcej informacji o tym, jak usługa Bing ocenia zawartość, w tym jak definiuje istotność oraz jakość i wiarygodność strony internetowej, jest dostępnych w "Wytycznych dla webmasterów Bing". Więcej informacji na temat zasad moderowania zawartości w usłudze Bing można znaleźć w temacie "Jak usługa Bing dostarcza wyniki wyszukiwania".
W Copilot w systemie Windows środowisku Copilot w usłudze Bing może współpracować z systemem operacyjnym Windows, aby zapewnić umiejętności specyficzne dla systemu Windows, takie jak zmienianie motywu lub tła użytkownika czy zmienianie ustawień, takich jak dźwięk, Bluetooth i sieci. Te środowiska umożliwiają użytkownikowi skonfigurowanie ustawień i poprawę środowiska użytkownika przy użyciu monitów języka naturalnego do usługi llm. Funkcje specyficzne dla aplikacji mogą być również udostępniane z wtyczek aplikacji innych firm. Mogą one automatyzować powtarzające się zadania i osiągać większą wydajność użytkownika. Od czasu do czasu llms może popełnić błędy, odpowiednie monity potwierdzenia użytkownika są dostarczane tak, że użytkownik jest ostatecznym arbitrem zmian, które mogą być wprowadzone.
Identyfikowanie ryzyka, jego mierzenie i ograniczanie
Podobnie jak inne technologie transformacyjne, wykorzystanie korzyści wynikających z AI nie jest wolne od ryzyka, a podstawową częścią odpowiedzialnego programu microsoftowej inteligencji jest identyfikowanie potencjalnych zagrożeń, mierzenie ich skłonności do wystąpienia i tworzenie środków łagodzących w celu ich rozwiązania. Kierując się naszymi zasadami AI i odpowiedzialnym standardem AI, staraliśmy się zidentyfikować, zmierzyć i ograniczyć potencjalne zagrożenia i niewłaściwe wykorzystanie Copilot w usłudze Bing przy jednoczesnym zabezpieczeniu transformacyjnych i korzystnych zastosowań, jakie zapewnia nowe środowisko. W poniższych sekcjach opisujemy nasze iteracyjne podejście do identyfikowania, mierzenia i ograniczania potencjalnego ryzyka.
Na poziomie modelu nasza praca rozpoczęła się od analiz eksploracyjnych modelu GPT-4 pod koniec lata 2022 roku. Obejmowały one przeprowadzenie szeroko zakrojonych testów czerwonego zespołu we współpracy z firmą OpenAI. Testy te miały na celu ocenę działania najnowszej technologii bez żadnych dodatkowych zabezpieczeń. Naszym szczególnym zamiarem w tym czasie było wygenerowanie szkodliwych odpowiedzi, ujawnienie potencjalnych możliwości niewłaściwego użycia oraz zidentyfikowanie możliwości i ograniczeń. Nasze połączone wnioski w openai i firmie Microsoft przyczyniły się do rozwoju modeli i, dla nas w firmie Microsoft, poinformowały nas o zagrożeniach i przyczyniły się do wczesnych strategii łagodzenia dla Copilot w usłudze Bing.
Oprócz testów zespołu czerwonego na poziomie modelu multidyscypliarny zespół ekspertów przeprowadził liczne rundy testów czerwonego zespołu na poziomie aplikacji na Copilot w usłudze Bing środowisk SI przed udostępnieniem ich publicznie w naszej ograniczonej wersji zapoznawczej. Proces ten pomógł nam lepiej zrozumieć, w jaki sposób system może zostać wykorzystany przez przeciwników i ulepszyć nasze środki zaradcze. Testerzy warunków skrajnych niebędący przeciwnikami, również intensywnie oceniali nowe funkcje usługi Bing pod kątem niedociągnięć i luk w zabezpieczeniach. Po wydaniu nowe środowiska sztucznej inteligencji w usłudze Bing są integrowane z istniejącą infrastrukturą pomiarową i testową organizacji inżynieryjnej usługi Bing. Na przykład testerzy z czerwonego zespołu z różnych regionów i środowisk stale oraz systematycznie próbują naruszyć system, a ich wyniki są wykorzystywane do rozszerzania zbiorów danych używanych przez usługę Bing do ulepszania systemu.
Testy zespołu czerwonego i testy warunków skrajnych mogą pojawiać się w wystąpieniach określonych zagrożeń, ale w produkcji użytkownicy będą mieli miliony różnych rodzajów konwersacji z Copilot w usłudze Bing. Ponadto konwersacje są wieloekulowe i kontekstowe, a identyfikowanie szkodliwej zawartości w konwersacji jest złożonym zadaniem. Aby lepiej zrozumieć i rozwiązać potencjalne zagrożenia związane z Copilot w usłudze Bing środowiskami AI, opracowaliśmy dodatkowe odpowiedzialne metryki AI specyficzne dla tych nowych środowisk AI w celu pomiaru potencjalnych zagrożeń, takich jak jailbreaks, szkodliwa zawartość i zawartość bez planu. Umożliwiliśmy również pomiary na dużą skalę poprzez częściowo zautomatyzowane potoki pomiarowe. Za każdym razem, gdy produkt ulega zmienia, istniejące środki zaradcze są aktualizowane lub proponowane są nowe środki zaradcze, aktualizujemy nasze potoki pomiarowe, aby ocenić zarówno wydajność produktu, jak i metryki odpowiedzialnej sztucznej inteligencji.
Jako przykład przykładowy zaktualizowany częściowo zautomatyzowany potok pomiarów szkodliwych treści zawiera dwie główne innowacje: symulację konwersacji i zautomatyzowaną adnotację konwersacji zweryfikowaną przez człowieka. Po pierwsze, odpowiedzialni eksperci od SI skonstruowali szablony, aby przechwycić strukturę i zawartość konwersacji, które mogą powodować różne typy szkodliwych treści. Te szablony zostały następnie przekazane agentowi konwersacji, który wchodził w interakcję jako hipotetyczny użytkownik z Copilot w usłudze Bing, generując symulowane konwersacje. Aby określić, czy te symulowane konwersacje zawierały szkodliwą zawartość, przyjęliśmy wytyczne, które są zwykle używane przez specjalistów lingwisty do oznaczania danych i modyfikowania ich do użycia przez GPT-4 do oznaczania konwersacji na dużą skalę, uściślając wytyczne, dopóki nie dojdzie do znaczącego porozumienia między konwersacjami oznaczonymi modelami a konwersacjami oznaczonymi przez człowieka. Na koniec użyto konwersacji oznaczonych modelem do obliczenia odpowiedzialnej metryki AI, która rejestruje skuteczność Copilot w usłudze Bing w łagodzeniu szkodliwych treści.
Nasze potoki pomiarowe umożliwiają nam szybkie przeprowadzanie pomiarów potencjalnych zagrożeń na dużą skalę. W miarę jak identyfikujemy nowe problemy w okresie podglądu i trwających testów zespołu czerwonego, nadal rozszerzamy zestawy pomiarów w celu oceny dodatkowych zagrożeń.
Po zidentyfikowaniu potencjalnych zagrożeń i nadużyć za pomocą procesów takich jak testy zespołu czerwonego i testy warunków skrajnych oraz zmierzeniu ich za pomocą innowacyjnych podejść opisanych powyżej, opracowaliśmy dodatkowe środki zaradcze dla tych, które są używane do tradycyjnego wyszukiwania. Poniżej opisujemy niektóre z tych środków zaradczych. Będziemy nadal monitorować środowisko Copilot w usłudze Bing AI w celu poprawy wydajności produktów i środków łagodzących.
Stopniowe zwalnianie, ciągłe ocenianie. Dokładamy wszelkich starań, aby stale uczyć się i ulepszać nasze podejście do odpowiedzialnej sztucznej inteligencji w miarę rozwoju naszych technologii i zachowań użytkowników. Nasza strategia stopniowego udostępniania była podstawową częścią tego, jak bezpiecznie przenosimy naszą technologię z laboratoriów na świat i zobowiązujemy się do celowego, przemyślanego procesu, aby zapewnić korzyści płynące z Copilot w usłudze Bing. Ograniczenie liczby osób mających dostęp w okresie podglądu pozwoliło nam odkryć, w jaki sposób ludzie korzystają z Copilot w usłudze Bing, w tym w jaki sposób ludzie mogą go nadużywać, abyśmy mogli spróbować złagodzić pojawiające się problemy przed szerszym wydaniem. Na przykład wymagamy od użytkowników uwierzytelnienia się przy użyciu ich konta Microsoft przed uzyskaniem dostępu do pełnego nowego środowiska usługi Bing. Nieuwierzytelnieni użytkownicy mogą uzyskiwać dostęp tylko do ograniczonego podglądu środowiska. Kroki te zniechęcają do nadużyć i pomagają nam (w razie potrzeby) podjąć odpowiednie działania w odpowiedzi na naruszenia kodeksu postępowania. Codziennie wprowadzamy zmiany w Copilot w usłudze Bing, aby zwiększyć wydajność produktu, ulepszyć istniejące środki łagodzące i wdrożyć nowe środki łagodzące w odpowiedzi na nasze wnioski w okresie podglądu.
Uziemienie w wynikach wyszukiwania. Jak wspomniano powyżej, Copilot w usłudze Bing ma na celu dostarczanie odpowiedzi obsługiwanych przez informacje w wynikach wyszukiwania w sieci Web, gdy użytkownicy szukają informacji. Na przykład system jest dostarczany z tekstem z najlepszych wyników wyszukiwania i instrukcjami za pośrednictwem metapromptu, aby uziemić swoją odpowiedź. Jednak podsumowując zawartość z sieci Web, Copilot w usłudze Bing może dołączyć do odpowiedzi informacje, które nie znajdują się w jej źródłach wejściowych. Innymi słowy, może to spowodować uzyskanie niezaplanowanych wyników. Nasze wczesne oceny wykazały, że wyniki na czacie mogą być bardziej rozpowszechnione w przypadku niektórych typów monitów lub tematów niż inne, takie jak prośba o obliczenia matematyczne, informacje finansowe lub rynkowe (na przykład zarobki firmy, dane o wynikach akcji) oraz informacje, takie jak dokładne daty zdarzeń lub konkretne ceny pozycji. Podczas wyświetlania podsumowanych wyników wyszukiwania, zarówno na stronie wyników wyszukiwania, jak i w trakcie czatu, użytkownicy powinni zawsze zachować ostrożność i korzystać z najlepszych wyników wyszukiwania. Podjęliśmy kilka działań, aby ograniczyć ryzyko nadmiernego polegania użytkowników na nieplanowanej zawartości wygenerowanej w scenariuszach podsumowania i środowiskach rozmów. Na przykład odpowiedzi w Copilot w usłudze Bing oparte na wynikach wyszukiwania obejmują odwołania do źródłowych witryn internetowych, w których użytkownicy mogą zweryfikować odpowiedź i dowiedzieć się więcej. Użytkownicy otrzymują również wyraźne powiadomienie, że wchodzą w interakcję z systemem sztucznej inteligencji i zaleca się im sprawdzenie materiałów źródłowych wyników internetowych, aby pomóc im w dokonaniu najlepszej oceny.
Klasyfikatory oparte na sztucznej inteligencji i metapolecenia w celu ograniczenia potencjalnego ryzyka lub niewłaściwego użycia. Korzystanie z modeli LLM może powodować powstawanie problematycznych zawartości, które mogą prowadzić do zagrożeń lub nadużyć. Przykłady mogą obejmować wyniki związane z samookaleczeniem, przemocą, zawartością graficzną, własnością intelektualną, niedokładnymi informacjami, mową nienawiści lub tekstem, który może odnosić się do nielegalnych działań. Klasyfikatory i metapolecenia to dwa przykłady środków zaradczych wdrożonych w funkcji Copilot w usłudze Bing w celu zmniejszenia ryzyka wystąpienia tego typu zawartości. Klasyfikatory klasyfikują tekst w celu oflagowania różnych typów potencjalnie szkodliwej zawartości w zapytaniach wyszukiwania, poleceniach czatu lub wygenerowanych odpowiedziach. Usługa Bing korzysta z klasyfikatorów opartych na interfejsie AI i filtrów zawartości, które mają zastosowanie do wszystkich wyników wyszukiwania i odpowiednich funkcji. Zaprojektowaliśmy dodatkowe opcje klasyfikatorów monitów i filtry zawartości przeznaczone specjalnie do rozwiązania ewentualnych zagrożeń, jakie mogą stwarzać funkcje Copilot w usłudze Bing. Flagi prowadzą do potencjalnych środków łagodzących, takich jak nie zwracanie użytkownikowi wygenerowanej zawartości, kierowanie użytkownika do innego tematu lub przekierowywanie użytkownika do tradycyjnego wyszukiwania. Metapolecenia obejmują wydawanie instrukcji modelowi, aby kierować jego zachowaniem, w tym tak, aby system zachowywał się zgodnie z zasadami sztucznej inteligencji firmy Microsoft i oczekiwaniami użytkowników. Na przykład metaprompt może zawierać wiersz, na przykład "komunikuj się w wybranym języku użytkownika".
Ochrona prywatności w wyszukiwaniu wizualnym w Copilot w usłudze Bing. Gdy użytkownicy przekażą obraz w ramach monitu czatu, Copilot w usłudze Bing będą korzystać z technologii rozmycia twarzy przed wysłaniem obrazu do modelu AI. Rozmycie twarzy jest używane do ochrony prywatności osób na obrazie. Technologia rozmycia twarzy opiera się na wskazówkach kontekstowych, aby określić, gdzie rozmyć i spróbuje rozmyć wszystkie twarze. Gdy twarze są zamazane, model AI może porównać wejściowy obraz z obrazami publicznie dostępnymi w Internecie. W rezultacie, na przykład, Copilot w usłudze Bing może być w stanie zidentyfikować słynnego koszykarza ze zdjęcia tego zawodnika na boisku do koszykówki, tworząc reprezentację liczbową, która odzwierciedla numer koszulki gracza, kolor koszulki, obecność obręczy do koszykówki itp. Copilot w usłudze Bing nie przechowuje liczbowych reprezentacji osób z przekazanych obrazów i nie udostępnia ich innym firmom. Copilot w usłudze Bing używa liczbowych reprezentacji obrazów przekazywanych przez użytkowników tylko w celu odpowiadania na monity użytkowników, a następnie są one usuwane w ciągu 30 dni od zakończenia czatu.
Jeśli użytkownik poprosi Copilot w usłudze Bing o informacje na temat przekazanego obrazu, odpowiedzi na czacie mogą odzwierciedlać wpływ rozmycia twarzy na możliwość dostarczania przez model informacji o przekazanym obrazie. Na przykład Copilot w usłudze Bing może opisać osobę, która ma rozmytą twarz.
Ograniczanie dryfu konwersacji. W okresie podglądu dowiedzieliśmy się, że bardzo długie sesje czatu mogą powodować powtarzające się, niepomocne lub niespójne z zamierzonym tonem Copilot w usłudze Bing. Aby rozwiązać ten problem konwersacji, ograniczyliśmy liczbę kolejek (wymiany zawierające zarówno pytanie użytkownika, jak i odpowiedź od Copilot w usłudze Bing) na sesję czatu. Nadal oceniamy dodatkowe podejścia w celu złagodzenia tego problemu.
Monituj o wzbogacenie. W niektórych przypadkach monit użytkownika może być niejednoznaczny. W takim przypadku Copilot w usłudze Bing mogą skorzystać z usługi llm, aby pomóc w tworzeniu dodatkowych szczegółów w monitach, aby zapewnić użytkownikom uzyskanie odpowiedzi, których szukają. Takie szybkie wzbogacenie nie polega na żadnej wiedzy użytkownika ani na jego wcześniejszych wyszukiwaniach, lecz na modelu AI. Te poprawione zapytania będą widoczne w historii czatów użytkownika i, podobnie jak w przypadku innych wyszukiwań, można je usuwać za pomocą kontrolek w produktach.
Interwencje dotyczące projektowania i środowiska użytkownika skoncentrowane na użytkownikach. Projektowanie skoncentrowane na użytkownikach i środowiska użytkowników to podstawowy aspekt podejścia firmy Microsoft do odpowiedzialnej SI. Celem jest wykorzenienie projektu produktu zgodnie z potrzebami i oczekiwaniami użytkowników. W miarę jak użytkownicy po raz pierwszy komunikują się z Copilot w usłudze Bing, oferujemy różne punkty dotykowe ułatwiające im zrozumienie możliwości systemu, ujawnianie im, że Copilot w usłudze Bing jest obsługiwane przez sztuczną inteligencję, oraz ograniczenia dotyczące komunikacji. Środowisko zostało zaprojektowane w ten sposób, aby pomóc użytkownikom w maksymalnym wykorzystaniu możliwości Copilot w usłudze Bing i zminimalizowaniu ryzyka nadmiernej zależności. Elementy środowiska pomagają również użytkownikom lepiej zrozumieć Copilot w usłudze Bing i ich interakcje z nim. Obejmują one sugestie czatu specyficzne dla odpowiedzialnej SI (na przykład w jaki sposób usługa Bing korzysta ze SI? Dlaczego nie Copilot w usłudze Bing odpowiadać na niektóre tematy?), objaśnienia ograniczeń, sposoby, w jaki użytkownicy mogą dowiedzieć się więcej o sposobie działania systemu i raportować opinie, a także łatwo nawigować po odwołaniach wyświetlanych w odpowiedziach, aby pokazać użytkownikom wyniki i strony, na których odpowiedzi są uziemione.
Ujawnienie SI. Copilot w usłudze Bing udostępnia kilka punktów dotykowych do znaczącego ujawnienia SI, w których użytkownicy są powiadamiani o interakcjach z systemem AI, a także możliwości, aby dowiedzieć się więcej o Copilot w usłudze Bing. Udostępnienie użytkownikom tej wiedzy może pomóc im uniknąć nadmiernego polegania na sztucznej inteligencji oraz poznać mocne strony i ograniczenia systemu.
Pochodzenie medialne.Microsoft Designer włączyła funkcję "Poświadczenia zawartości", która używa metod kryptograficznych do oznaczania źródła lub "pochodzenia" wszystkich obrazów generowanych przez AI utworzonych na Designer. Funkcja niewidocznego cyfrowego znaku wodnego pokazuje źródło, godzinę i datę oryginalnego utworzenia i nie można zmienić tych informacji. Technologia wykorzystuje standardy ustalone przez Koalicję na rzecz Zawartości i Autentyczności (C2PA), aby dodać dodatkową warstwę zaufania i przejrzystości dla obrazów generowanych przez AI. Firma Microsoft jest współzałożycielką oprogramowania C2PA i współtworzy podstawową technologię pochodzenia zawartości cyfrowej.
Warunki użytkowania i Kodeks postępowania. Ten zasób służy do używania rozwiązania Copilot w usłudze Bing. Użytkownicy powinni przestrzegać warunków użytkowania i kodeksu postępowania, które między innymi informują ich o dopuszczalnym i niedopuszczalnym użyciu oraz o konsekwencjach naruszenia warunków. Warunki użytkowania udostępniają również dodatkowe informacje dla użytkowników i służą jako przydatne informacje dla użytkowników, aby dowiedzieć się więcej o Copilot w usłudze Bing.
Operacje i szybka reakcja. Wykorzystujemy również bieżące procesy monitorowania i działania Copilot w usłudze Bing w celu rozwiązania problemu, gdy Copilot w usłudze Bing odbiera sygnały lub otrzymuje raport, wskazujący na możliwe nadużycia lub naruszenia Warunków użytkowania lub Kodeksu postępowania.
Opinie, monitorowanie i nadzór. Środowisko Copilot w usłudze Bing bazuje na istniejącym narzędziu, które umożliwia użytkownikom przesyłanie opinii i zgłaszanie obaw, które są sprawdzane przez zespoły operacyjne firmy Microsoft. Procesy operacyjne usługi Bing zostały również rozszerzone, aby uwzględnić funkcje w środowisku Copilot w usłudze Bing, na przykład aktualizowanie strony Zgłaszanie problemu w celu uwzględnienia nowych typów zawartości generowanych przez użytkowników przy pomocy modelu.
Nasze podejście do identyfikowania, pomiaru i ograniczania ryzyka będzie się rozwijać w miarę jak będziemy się uczyć więcej, a my już wprowadzamy ulepszenia na podstawie opinii zebranych w okresie podglądu.
Automatyczne wykrywanie zawartości. Gdy użytkownicy przekazują obrazy w ramach monitu czatu, Copilot w usłudze Bing wdraża narzędzia do wykrywania wykorzystywania seksualnego dzieci i obrazów nadużyć seksualnych (CSEAI), w szczególności technologii dopasowywania skrótów PhotoDNA. Firma Microsoft opracowała aplikację PhotoDNA, aby pomóc w znalezieniu duplikatów znanych plików CSEAI. Firma Microsoft zgłasza wszystkie pozorne CSEAI do National Center for Missing and Exploited Children (NCMEC), zgodnie z wymogami amerykańskiego prawa. Gdy użytkownicy przekazują pliki do analizy lub przetwarzania, copilot wdraża automatyczne skanowanie w celu wykrywania zawartości, która może prowadzić do ryzyka lub niewłaściwego użycia, takiego jak tekst, który może odnosić się do nielegalnych działań lub złośliwego kodu.
Ochrona prywatności
Wieloletnie przekonanie firmy Microsoft, że prywatność jest podstawowym prawem człowieka, informuje na każdym etapie rozwoju i wdrażania Copilot w usłudze Bing doświadczenia firmy Microsoft. Nasze zobowiązania do ochrony prywatności wszystkich użytkowników, w tym poprzez zapewnienie osobom przejrzystości i kontroli nad ich danymi oraz zintegrowanie prywatności poprzez projektowanie poprzez minimalizację danych i ograniczenie celu, stanowią podstawę dla Copilot w usłudze Bing. W miarę jak rozwijamy nasze podejście do zapewniania środowiska generowanej przez Copilot w usłudze Bing AI, będziemy stale badać, jak najlepiej chronić prywatność. Ten dokument będzie aktualizowany w miarę wykonywania tych czynności. Więcej informacji na temat ochrony prywatności naszych użytkowników przez firmę Microsoft można znaleźć w oświadczeniu o ochronie prywatności firmy Microsoft.
W Copilot w systemie Windows środowisku umiejętności systemu Windows mogą udostępniać informacje o użytkownikach za pomocą konwersacji na czacie. Podlega to zatwierdzeniu przez użytkownika, a monity interfejsu użytkownika są wyświetlane w celu potwierdzenia zamiaru użytkownika przed udostępnieniem informacji o użytkowniku w konwersacji na czacie.
Firma Microsoft nadal traktuje potrzeby dzieci i młodzieży jako część oceny ryzyka nowych funkcji generowania SI w Copilot w usłudze Bing. Wszystkie konta Microsoft dzieci identyfikujące użytkownika w wieku poniżej 13 lat lub określone w inny sposób zgodnie z lokalnym prawem nie mogą zalogować się, aby uzyskać dostęp do pełnego nowego środowiska usługi Bing.
Jak opisano powyżej, dla wszystkich użytkowników wdrożyliśmy zabezpieczenia ograniczające potencjalnie szkodliwą zawartość. W Copilot w usłudze Bing wyniki są ustawione tak jak w trybie ścisłym bezpiecznego wyszukiwania Bing, który ma najwyższy poziom ochrony bezpieczeństwa w głównym wyszukiwaniu Bing, uniemożliwiając tym samym użytkownikom, w tym użytkownikom nastolatków, narażenie na potencjalnie szkodliwą zawartość. Oprócz informacji zawartych w tym dokumencie i w często zadawanych pytaniach dotyczących funkcji czatu, więcej informacji na temat działania Copilot w usłudze Bing w celu uniknięcia odpowiadania na nieoczekiwaną obraźliwą zawartość w wynikach wyszukiwania jest dostępna tutaj.
Firma Microsoft zobowiązała się nie dostarczać spersonalizowanych reklam na podstawie zachowań w Internecie dzieciom, których data urodzenia na ich kontach Microsoft określa ich jako osoby poniżej 18 roku życia. Ta ważna ochrona obejmie reklamy w Copilot w usłudze Bing funkcji. Użytkownicy mogą wyświetlać reklamy kontekstowe na podstawie zapytania lub monitu używanego do interakcji z usługą Bing.
Aby odblokować transformacyjny potencjał generowania AI, musimy budować zaufanie do technologii poprzez umożliwienie użytkownikom zrozumienia, w jaki sposób ich dane są wykorzystywane, oraz zapewnienie im znaczących wyborów i kontroli nad ich danymi. Copilot w usłudze Bing zaprojektowano tak, aby priorytetowo traktować agencję ludzką poprzez dostarczanie informacji na temat sposobu działania produktu, a także jego ograniczeń oraz poprzez rozszerzenie naszych solidnych wyborów i kontroli konsumentów na funkcje Copilot w usłudze Bing.
Zasady zachowania poufności informacji firmy Microsoft zawierają informacje na temat naszych przejrzystych praktyk w zakresie ochrony prywatności w celu ochrony naszych klientów oraz zawierają informacje na temat mechanizmów kontroli, które dają naszym użytkownikom możliwość wyświetlania ich danych osobowych i zarządzania nimi. Aby zapewnić użytkownikom informacje potrzebne podczas interakcji z nowymi funkcjami konwersacji usługi Bing, informacje zawarte w informacjach zawartych w produktach informują użytkowników, że angażują się w produkt AI, oraz udostępniamy linki do dodatkowych często zadawanych pytań i wyjaśnień dotyczących działania tych funkcji. Firma Microsoft będzie nadal słuchać opinii użytkowników i doda więcej szczegółów dotyczących funkcji konwersacji usługi Bing, aby ułatwić zrozumienie sposobu działania produktu.
Firma Microsoft udostępnia również swoim użytkownikom zaawansowane narzędzia do wykonywania swoich praw w stosunku do swoich danych osobowych. W przypadku danych zbieranych przez Copilot w usłudze Bing, w tym za pośrednictwem zapytań użytkowników i monitów, pulpit nawigacyjny prywatności firmy Microsoft udostępnia uwierzytelnionym (zalogowanym) użytkownikom narzędzia do wykonywania przysługujących im praw podmiotu danych, w tym przez zapewnienie użytkownikom możliwości wyświetlania, eksportowania i usuwania przechowywanej historii konwersacji. Firma Microsoft nadal analizuje opinie na temat sposobu zarządzania nowym środowiskami usługi Bing, w tym poprzez korzystanie z funkcji zarządzania danymi w kontekście.
Copilot w usłudze Bing uwzględnia również wnioski wynikające z europejskiego prawa do bycia zapomnianym, w następstwie procesu, który firma Microsoft opracowała i udoskonaliła dla tradycyjnych funkcji wyszukiwania Bing. Wszyscy użytkownicy mogą zgłaszać tutaj obawy dotyczące wygenerowanej zawartości i odpowiedzi, a nasi europejscy użytkownicy mogą za pomocą tego formularza przesyłać żądania blokowania wyników wyszukiwania w Europie w ramach prawa do bycia zapomnianym.
Copilot w usłudze Bing będą uwzględniać opcje prywatności użytkowników, w tym te, które zostały wcześniej wprowadzone w usłudze Bing, takie jak zgoda na gromadzenie i używanie danych wymagane za pośrednictwem banerów plików cookie i kontrolek dostępnych na pulpicie nawigacyjnym prywatności firmy Microsoft. Aby ułatwić autonomię użytkownika i agencję w podejmowaniu świadomych decyzji, użyliśmy naszego wewnętrznego procesu przeglądu w celu dokładnego zbadania sposobu przedstawiania użytkownikom wyborów.
Oprócz kontrolek dostępnych za pośrednictwem pulpitu nawigacyjnego prywatności firmy Microsoft, które umożliwiają użytkownikom wyświetlanie, eksportowanie i usuwanie historii wyszukiwania, w tym składników historii czatów, uwierzytelnieni użytkownicy, którzy włączyli funkcję Historia czatu w produkcie, mają możliwość wyświetlania, uzyskiwania dostępu do historii czatów i pobierania jej za pośrednictwem kontrolek w produktach. Użytkownicy mogą wyczyścić określone czaty z historii czatu lub całkowicie wyłączyć funkcję Historia czatu w dowolnym momencie, odwiedzając stronę Ustawienia usługi Bing. Użytkownicy mogą również zdecydować, czy zezwolić personalizacji na dostęp do bardziej dostosowanego środowiska za pomocą spersonalizowanych odpowiedzi. Użytkownicy mogą w dowolnym momencie zrezygnować z personalizacji w ustawieniach czatu na stronie Ustawienia usługi Bing. Wyczyszczenie określonych czatów z historii czatu uniemożliwia ich używanie do personalizacji. często zadawanych pytań.
Więcej informacji na temat historii czatu i personalizacji są udostępniane użytkownikom w Copilot w usłudze BingCopilot w usłudze Bing opracowano z myślą o ochronie prywatności, dzięki czemu dane osobowe są gromadzone i używane tylko w razie potrzeby i nie są przechowywane dłużej, niż jest to konieczne. Jak wspomniano powyżej, funkcja Wyszukiwanie wizualne w Copilot w usłudze Bing wdraża mechanizm rozmycia twarzy na obrazach w momencie przekazywania przez użytkowników, dzięki czemu obrazy twarzy nie są dalej przetwarzane ani przechowywane. Więcej informacji na temat danych osobowych gromadzonych przez usługę Bing, sposobu ich użycia oraz sposobu ich przechowywania i usuwania jest dostępnych w zasadach zachowania poufności informacji firmy Microsoft, które zawierają również informacje o nowych funkcjach czatu w usłudze Bing.
Usługa Copilot w usłudze Bing ma zasady przechowywania i usuwania danych, aby zapewnić, że dane osobowe gromadzone za pośrednictwem funkcji czatu usługi Bing są przechowywane tylko tak długo, jak to konieczne.
Będziemy nadal uczyć się i rozwijać nasze podejście w zapewnianiu Copilot w usłudze Bing i tak jak to robimy, będziemy nadal pracować w różnych dyscyplinach, aby dostosować nasze innowacje w dziedzinie AI do wartości ludzkich i praw podstawowych, w tym ochrony młodych użytkowników i prywatności.
Copilot z komercyjną ochroną danych
Usługa Copilot z komercyjną ochroną danych, wcześniej znana jako Bing Chat Enterprise ("BCE"), została wydana przez firmę Microsoft w bezpłatnej publicznej wersji zapoznawczej w lipcu 2023 r. jako bezpłatny dodatek dla niektórych klientów korzystających z usługi M365. Rozwiązania Copilot z komercyjną ochroną danych to ulepszone wyszukiwanie w sieci Web przez AI dla użytkowników końcowych przedsiębiorstw.
Podobnie jak w przypadku Copilot w usłudze Bing, gdy użytkownik końcowy copilot z komercyjną ochroną danych wprowadza monit do interfejsu, monit, natychmiastowa konwersacja, najlepsze wyniki wyszukiwania i metaprompt są wysyłane jako dane wejściowe do llm. Model generuje odpowiedź za pomocą monitu i bezpośredniej historii konwersacji w celu kontekstuzwalizacji żądania, metapromptu w celu dopasowania odpowiedzi do zasad microsoft ai i oczekiwań użytkowników oraz wyników wyszukiwania do podstawowych odpowiedzi w istniejącej, wysokiej rangi zawartości z sieci Web. Działa to tak samo jak copilot w usłudze Bing, jak opisano powyżej w tym dokumencie, z wyjątkiem tego, że Copilot z komercyjną ochroną danych opiera się tylko na historii bezpośrednich konwersacji (nie na historii ostatnich konwersacji) ze względu na zapisaną historię czatu, która nie jest obecnie obsługiwana. Designer i wyszukiwanie wizualne są teraz dostępne w tej wersji.
Podobnie jak inne technologie transformacyjne, wykorzystanie korzyści wynikających z AI nie jest wolne od ryzyka, a podstawową częścią odpowiedzialnego programu microsoftowej inteligencji jest identyfikowanie potencjalnych zagrożeń, mierzenie ich skłonności do wystąpienia i tworzenie środków łagodzących w celu ich rozwiązania. Ponadto powyższe opisy działań firmy Microsoft mających na celu identyfikację, mierzenie i ograniczanie potencjalnych zagrożeń dla Copilot w usłudze Bing mają zastosowanie również do tej wersji, a niektóre objaśnienia dotyczące środków łagodzących opisano poniżej:
Stopniowe zwalnianie, ciągłe ocenianie. Podobnie jak w przypadku Copilot Bing, w przypadku Copilot z komercyjną ochroną danych podjęliśmy również stopniowe podejście do udostępniania. W dniu 18 lipca 2023 r. usługa Copilot z komercyjną ochroną danych została udostępniona jako bezpłatna wersja zapoznawcza dla uprawnionych klientów korporacyjnych z określonymi kontami M365 do włączenia dla użytkowników końcowych przedsiębiorstw. Trzydzieści (30) dni po powiadomieniu uprawnionych klientów korporacyjnych, Copilot z komercyjną ochroną danych stał się "domyślnie włączony" dla tych samych klientów. Od tego czasu copilot z komercyjną ochroną danych jest również dostępny dla konkretnych kont edukacyjnych M365. 1 grudnia 2023 r. firma Copilot z komercyjną ochroną danych stała się ogólnie dostępna dla niektórych klientów korporacyjnych. W przyszłości planujemy rozszerzyć dostęp do rozwiązania Copilot o komercyjną ochronę danych o więcej użytkowników Tożsamość Microsoft Entra.
Warunki użytkowania i Kodeks postępowania. Użytkownicy końcowi firmy Copilot mającej komercyjną ochronę danych muszą przestrzegać Warunków użytkowania użytkownika końcowego. Niniejsze Warunki użytkowania informują użytkowników końcowych o dopuszczalnych i niedopuszczalnych zastosowaniach oraz o konsekwencjach naruszenia warunków.
Operacje i szybka reakcja. Wykorzystujemy również bieżące procesy monitorowania i działania firmy Copilot w usłudze Bing w celu rozwiązania problemu, gdy Copilot z komercyjną ochroną danych odbiera sygnały lub otrzymuje raport, wskazujący na możliwe nadużycia lub naruszenia Warunków użytkowania użytkownika końcowego.
Opinie, monitorowanie i nadzór. Rozwiązania Copilot z ochroną danych komercyjnych korzystają z tego samego narzędzia co Copilot w usłudze Bing, aby użytkownicy przesyłali opinie i zgłaszali obawy, które są przeglądane przez zespoły operacyjne firmy Microsoft. procesy operacyjne Copilot w usłudze Bing również zostały rozszerzone, aby uwzględnić funkcje rozwiązania Copilot z komercyjnymi środowiskami ochrony danych, na przykład aktualizowanie strony Zgłaszanie problemu w celu uwzględnienia nowych typów zawartości generowanych przez użytkowników przy pomocy modelu.
Aby zapewnić użytkownikom końcowym dostęp do potrzebnych informacji podczas interakcji z firmą Copilot w zakresie komercyjnej ochrony danych, u dołu tego dokumentu znajduje się dokumentacja produktu, w tym często zadawane pytania i strony Dowiedz się więcej.
Polecenia i odpowiedzi generowane przez użytkowników końcowych w copilot z komercyjną ochroną danych są przetwarzane i przechowywane zgodnie ze standardami obsługi danych przedsiębiorstwa. Oferta Copilot z komercyjną ochroną danych jest obecnie dostępna tylko dla klientów korporacyjnych i ich uwierzytelnionych dorosłych użytkowników końcowych, dlatego obecnie nie przewidujemy, aby dzieci i młodzież były użytkownikami końcowymi firmy Copilot z komercyjną ochroną danych. Ponadto rozwiązania Copilot z komercyjną ochroną danych nie zapewniają użytkownikom końcowym żadnych reklam ukierunkowanych behawioralnie. Zamiast tego wszystkie wyświetlane reklamy są tylko reklamy kontekstowe.
Dowiedz się więcej
Ten dokument jest częścią szerszych wysiłków firmy Microsoft na rzecz wprowadzenia naszych zasad AI w życie. Aby dowiedzieć się więcej, zobacz:
Podejście firmy Microsoft do odpowiedzialnej SI
Odpowiedzialna SI Firmy Microsoft Standard
Informacje o tym dokumencie
© 2023 Microsoft. Wszelkie prawa zastrzeżone. Ten dokument jest dostarczany "w takiej postaci, w jakim jest" i służy jedynie celom informacyjnym. Informacje i widoki wyrażone w tym dokumencie, w tym adresy URL i inne odwołania do witryn internetowych, mogą ulec zmianie bez powiadomienia. Użytkownik ponosi ryzyko związane z jego używaniem. Niektóre przykłady dotyczą tylko ilustracji i są fikcyjne. Żadne rzeczywiste skojarzenie nie jest zamierzone ani wywnioskować.