Ostatnia aktualizacja: 19 grudnia 2025 r.

Co to jest uwaga dotycząca przezroczystości?

System AI obejmuje nie tylko technologię, ale także ludzi, którzy będą z niej korzystać, ludzi, których będzie ona dotyczyć, oraz środowisko, w którym jest wdrożona. Notatki firmy Microsoft dotyczące przezroczystości pomagają zrozumieć, jak działa technologia AI firmy Copilot, dokonywane przez nas wybory wpływające na wydajność i zachowanie systemu oraz znaczenie myślenia o całym systemie, dzięki czemu użytkownicy rozwiązania Copilot mogą przejąć kontrolę nad własnym środowiskiem i zrozumieć, jakie czynności podejmujemy w celu zapewnienia bezpiecznego produktu.

Notatki firmy Microsoft dotyczące transparentności są częścią szerszych wysiłków firmy Microsoft na rzecz wprowadzenia naszych zasad AI w życie. Aby dowiedzieć się więcej, zobacz Zasady microsoft ai

Podstawy Microsoft Copilot

Wprowadzenie

Copilot to środowisko oparte na sztucznej inteligencji, które pomoże zapewnić użytkownikom informacje, których szukają, podczas gdy są przygotowani do wspierania użytkowników w odpowiadaniu na wiele pytań, niezależnie od sytuacji lub tematu. Odświeżony copilot wykracza poza odpowiadanie na podstawowe zapytania pobierania informacji i koncentruje się na generowaniu zawartości, aby zaoferować bardziej proaktywną pomoc techniczną dla użytkowników podczas wykonywania zadań. Stale rozumiemy, w jaki sposób SI ma potencjał, aby pomóc ludziom uczyć się, odkrywać i być bardziej kreatywnymi, co wymagało od nas budowania innego typu produktu. Nowe środowisko rozwiązania Copilot ma stać się nowym typem środowiska otwartego i dynamicznego, aby lepiej odpowiadać potrzebom użytkowników w sposób bardziej intuicyjny.

W firmie Microsoft poważnie traktujemy nasze zobowiązanie do odpowiedzialnej sztucznej inteligencji. Zaktualizowane środowisko rozwiązania Copilot zostało opracowane zgodnie z zasadami AI firmy Microsoft, odpowiedzialnymi standardami AI firmy Microsoft oraz we współpracy z odpowiedzialnymi ekspertami WI w całej firmie, w tym z Biurem Odpowiedzialnej AI firmy Microsoft, naszymi zespołami inżynierskimi, Microsoft Research i Aether. Więcej informacji na temat odpowiedzialnej si przez firmę Microsoft można znaleźć tutaj.  

W tym dokumencie opisujemy nasze podejście do odpowiedzialnej SI dla Copilot. Przed wydaniem korzystaliśmy z najnowocześniejszych metod firmy Microsoft w celu mapowania, mierzenia i zarządzania potencjalnymi zagrożeniami i niewłaściwym wykorzystaniem systemu oraz w celu zapewnienia użytkownikom jego korzyści. W miarę jak stale rozwijamy Copilot, nadal uczymy się i ulepszamy nasze odpowiedzialne wysiłki na rzecz SI. Ten dokument będzie okresowo aktualizowany w celu informowania nas o zmieniających się procesach i metodach.  

Najważniejsze terminy

Klasyfikatorów    Modele uczenia maszynowego ułatwiające sortowanie danych do oznaczonych zajęć lub kategorii informacji. W zaktualizowanym środowisku Copilot jednym ze sposobów, w jaki używamy klasyfikatorów, jest pomoc w wykrywaniu potencjalnie szkodliwej zawartości przesyłanej przez użytkowników lub wygenerowanej przez system w celu ograniczenia generowania tej zawartości oraz nieprawidłowego lub nadużycia systemu. 

Uziemienia    W przypadku niektórych konwersacji, w których użytkownicy szukają informacji, copilot jest zakorzeniony w wynikach wyszukiwania w Internecie. Oznacza to, że program Copilot koncentruje swoją odpowiedź na wysokiej rangi zawartości z sieci Web i udostępnia hiperlinki cytatów następujących po wygenerowanych odpowiedziach tekstowych. Pamiętaj, że w tej chwili monity użytkownika w trybie głosowym nie będą wyzwalać wyszukiwania w Internecie, dlatego żadne odpowiedzi nie będą zawierać cytatów.

Duże modele językowe    Duże modele językowe (LLMs) w tym kontekście są modelami AI przeszkolonymi na dużych ilościach danych tekstowych w celu przewidywania wyrazów w sekwencjach. LlMs mogą wykonywać różne zadania, takie jak generowanie tekstu, podsumowanie, tłumaczenie, klasyfikacja i nie tylko.

Łagodzenia    Metoda lub kombinacja metod mających na celu zmniejszenie potencjalnego ryzyka, jakie może powstać w wyniku użycia funkcji AI w rozwiązaniach Copilot.

Modele wielomodalne (MMM)    Modele wielomodalne (MMM) są modelami AI przeszkolonymi pod względem różnych typów danych, takich jak tekst, obrazy lub dźwięk. Te modele mogą wykonywać różne zadania, takie jak pisanie tekstu, opisywanie obrazów, rozpoznawanie mowy i znajdowanie informacji o różnych typach danych.

Polecenia    Dane wejściowe w postaci tekstu, obrazów i/lub dźwięku wysyłanego przez użytkownika do rozwiązania Copilot w celu interakcji z funkcjami AI w rozwiązaniach Copilot.

Red teaming    Techniki używane przez ekspertów do oceny ograniczeń i luk systemu oraz do testowania skuteczności planowanych środków łagodzących. Testy zespołu czerwonego obejmują testerów przyjmujących zarówno łagodne, jak i kontradyktoryjne osoby w celu zidentyfikowania potencjalnych zagrożeń i różnią się od systematycznego pomiaru ryzyka.

Odpowiedzi    Tekst, obrazy lub dźwięk, który program Copilot jest generowany w odpowiedzi na monit lub w ramach połączenia z użytkownikiem. Synonimy "odpowiedzi" obejmują wyrazy "zakończenie", "generowanie" i "odpowiedź".

Małe modele językowe (S SLM)    Małe modele językowe (SM) w tym kontekście są modelami AI przeszkolonymi na mniejszych, bardziej skoncentrowanych ilościach danych w porównaniu z dużymi modelami językowymi. Pomimo mniejszych rozmiarów, maszyny S SLM mogą wykonywać różne zadania, takie jak generowanie tekstu, podsumowywane, tłumaczenie i klasyfikacja. Mimo że mogą one nie odpowiadać szerokim możliwościom llms, s slms są często bardziej zasobooszczędne i mogą być bardzo skuteczne dla konkretnych, ukierunkowanych aplikacji. 

Komunikat systemowy    Komunikat systemowy (czasami nazywany "metapromptem") to program służący do kierowania działaniem systemu. Części komunikatu systemu ułatwiają dostosowanie zachowania systemu do zasad microsoft ai i oczekiwań użytkowników. Na przykład komunikat systemowy może zawierać wiersz, taki jak "nie udostępniaj informacji ani nie twórz zawartości, która może powodować szkody fizyczne, emocjonalne lub finansowe". 

Możliwości

Zachowanie systemu

Dzięki rozwiązaniu Copilot opracowaliśmy innowacyjne podejście, aby zapewnić użytkownikom bardziej spersonalizowane środowisko AI w celu zapewnienia atrakcyjnego środowiska, które może ułatwić użytkownikom wykonywanie różnych zadań. To innowacyjne podejście korzysta z różnych zaawansowanych technologii, takich jak modele językowe i multimodalne firmy Microsoft, OpenAI i innych deweloperów modeli. Pracowaliśmy nad wdrożeniem technik bezpieczeństwa dla modeli podstawowych nowego środowiska Copilot przed publicznym wydaniem, aby opracować dostosowany zestaw możliwości i zachowań, które zapewniają ulepszone środowisko Copilot. W zaktualizowanym copilot użytkownicy mogą wysyłać monity w języku naturalnym tekstu lub głosu. Odpowiedzi są przedstawiane użytkownikom w kilku różnych formatach, takich jak odpowiedzi czatu w formie tekstowej (z niezbędnymi tradycyjnymi linkami do zawartości sieci Web) i obrazy (jeśli żądanie obrazu zostało złożone w ramach monitu). Jeśli użytkownicy wysyłają monity głosem w języku naturalnym w trybie Copilot Voice, będą oni otrzymywać odpowiedzi audio. 

Gdy użytkownik wprowadzi monit w usłudze Copilot, monit, historia konwersacji i wiadomość systemowa są wysyłane za pośrednictwem kilku klasyfikatorów wprowadzania, aby pomóc odfiltrować szkodliwą lub nieodpowiednią zawartość. Jest to kluczowy pierwszy krok w celu zwiększenia wydajności modelu i złagodzenia sytuacji, w których użytkownicy mogą próbować monitować model w sposób, który może być niebezpieczny. Gdy monit przechodzi przez klasyfikatory wprowadzania, jest wysyłany do slm w celu ustalenia, czy żądanie wymaga danych uziemienia z sieci Web i który model języka powinien odpowiedzieć na żądanie. Wszystkie modele generują odpowiedź za pomocą monitu użytkownika i historii ostatnich konwersacji w celu kontekstowego ujmowania żądania, komunikatu systemowego w celu dostosowania odpowiedzi do zasad microsoft ai i oczekiwań użytkowników, a w razie potrzeby dopasuj odpowiedzi z wynikami wyszukiwania do podstawowych odpowiedzi w istniejącej, wysokiej rangi zawartości z sieci Web.  

Odpowiedzi są przedstawiane użytkownikom w kilku różnych formatach, takich jak odpowiedzi czatu w formie tekstowej, tradycyjne linki do zawartości sieci Web, obrazy i odpowiedzi audio. Gdy odpowiedzi są dostarczane w formie tekstu — a odpowiedzi są zakorzenione w danych z sieci Web — dane wyjściowe zawierają cytaty z hiperlinkami wymienione poniżej tekstu, dzięki czemu użytkownicy mogą uzyskać dostęp do witryn internetowych, które zostały użyte do uziemienia odpowiedzi, i dowiedzieć się więcej o tym temacie z tego miejsca. Program Copilot może również uruchamiać kod w celu wykonywania złożonych obliczeń i generowania wykresów. Copilot może przechowywać konkretne fakty, o które użytkownicy proszą, aby pamiętać, co pozwala mu generować bardziej odpowiednie odpowiedzi i sugestie na podstawie tego kontekstu. Copilot może również usuwać zapisane fakty, gdy użytkownicy proszą o ich jawne zapomnienie.

Copilot pomaga również użytkownikom tworzyć nowe historie, wiersze, teksty piosenek i obrazy. Gdy copilot wykryje zamiar użytkownika, aby wygenerować kreatywną zawartość (na przykład monit użytkownika, który zaczyna się od "napisz mi ..."), system w większości przypadków wygeneruje zawartość reagującą na monit użytkownika. Podobnie, gdy copilot wykryje zamiar wygenerowania obrazu (takiego jak monit użytkownika, który zaczyna się od "draw me a ..."), Copilot w większości przypadków wygeneruje obraz reagujący na monit użytkownika. Gdy program Copilot wykryje zamiar modyfikacji przekazanego obrazu (na przykład monit użytkownika rozpoczynający się od ciągu "dodaj ..."), copilot w większości przypadków zmodyfikuje obraz, który odpowiada monitowi użytkownika. Copilot może nie odpowiadać kreatywną zawartością, gdy monit użytkownika zawiera pewne terminy, które mogą powodować problematyczne treści.

Użytkownicy z kontami Microsoft (MSA) mają teraz również możliwość subskrybowania Copilot Pro, co zapewnia lepsze środowisko, w tym przyspieszoną wydajność, korzystanie z funkcji Copilot Voice przez dłuższy czas, a w niektórych przypadkach dostęp do nowych, eksperymentalnych funkcji. Copilot Pro jest obecnie dostępny w ograniczonej liczbie krajów, a wkrótce planujemy udostępnić Copilot Pro na kolejnych rynkach.

Zamierzone zachowanie bezpieczeństwa

Naszym celem dla Copilot jest być pomocne dla użytkowników. Wykorzystując najlepsze rozwiązania z innych produktów i usług generujących SI firmy Microsoft, staramy się ograniczyć copilot do generowania problematycznych treści i zwiększać prawdopodobieństwo bezpiecznego i pozytywnego środowiska użytkownika. Chociaż podjęliśmy kroki w celu złagodzenia ryzyka, generowanie modeli AI, takich jak te za Copilot są probabilistyczne i może popełnić błędy, co oznacza, że środki łagodzące mogą od czasu do czasu nie blokować szkodliwych monitów użytkowników lub odpowiedzi generowanych przez AI. Jeśli podczas korzystania z rozwiązania Copilot napotkasz szkodliwą lub nieoczekiwaną zawartość, przekaż nam swoją opinię, abyśmy mogli kontynuować ulepszanie środowiska.

Przypadki użycia

Zamierzone zastosowania

Copilot ma na celu wspieranie użytkowników w odpowiadaniu na wiele pytań, niezależnie od sytuacji lub tematu. Użytkownicy mogą wchodzić w interakcje z copilotem za pomocą tekstu, obrazów i danych wejściowych audio, gdy interakcje mają przypominać naturalne konwersacje z systemem AI. Ponadto, jeśli użytkownicy komunikują się z rozwiązaniam Copilot za pośrednictwem tekstu w celu poszukiwania konkretnych informacji na tematy, w których program Copilot może wymagać więcej informacji w celu uzyskania dokładniejszej odpowiedzi, środowisko ma na celu połączenie użytkowników z odpowiednimi wynikami wyszukiwania, przeglądanie wyników z sieci Web i podsumowywanie informacji szukanych przez użytkowników. W programie Copilot użytkownicy mogą: 

  • Podsumowywanie informacji w czasie rzeczywistym podczas rozmowy za pomocą tekstu.    Gdy użytkownicy komunikują się z rozwiązaniami Copilot za pośrednictwem tekstu, system będzie przeprowadzać wyszukiwania w Internecie, jeśli potrzebuje więcej informacji, i użyje najlepszych wyników wyszukiwania w Internecie w celu wygenerowania podsumowania informacji do prezentowania użytkownikom. Te podsumowania zawierają cytaty do stron internetowych, aby ułatwić użytkownikom wyświetlanie źródeł wyników wyszukiwania, które pomogły rozwiązać problem z podsumowaniem rozwiązania Copilot. Użytkownicy mogą kliknąć te linki, aby przejść bezpośrednio do źródła, jeśli chcą dowiedzieć się więcej.

  • Rozmawiaj na czacie z systemem AI przy użyciu tekstu.    Użytkownicy mogą rozmawiać z Copilot za pośrednictwem tekstu i zadawać kolejne pytania, aby znaleźć nowe informacje i uzyskać pomoc techniczną na wiele różnych tematów.

  • Interfejs z AI przy użyciu głosu i wyglądu.    Copilot może nie tylko odbierać sygnały dźwiękowe, ale także generować sygnał dźwiękowy w jednym z czterech głosów wybranych przez użytkowników i prezentować wygląd, aby wzbogacić interakcję. Funkcje audio-to-audio i wyglądu umożliwiają użytkownikom interakcję z copilot w bardziej naturalny i płynny sposób.

  • Odbieraj przyswajalną zawartość wiadomości.    Użytkownicy mogą korzystać z rozwiązania Copilot, aby otrzymywać podsumowanie wiadomości, pogody i innych aktualizacji opartych na wybranych obszarach tematów za pośrednictwem funkcji Copilot Daily i słuchać tych briefingów w formacie przypominanym podkastem. Ta funkcja pobiera zawartość z autoryzowanych źródeł, które mają umowy z firmą Microsoft.

  • Uzyskaj pomoc w generowaniu nowych pomysłów.    Za każdym razem, gdy użytkownicy komunikują się ze środowiskiem Copilot, zobaczą zestaw kart, które mogą kliknąć, aby rozpocząć rozmowę z Copilot na przydatne i interesujące tematy. Jeśli użytkownicy korzystali z innych usług firmy Microsoft dla konsumentów, karty będą spersonalizowane zgodnie z naszymi zasadami ochrony prywatności. Z czasem karty w Copilot mogą być spersonalizowane na podstawie historii czatów użytkownika. Użytkownicy mogą zrezygnować z personalizacji w dowolnym momencie w ustawieniach.

  • Wygeneruj kreatywną zawartość.    Podczas rozmowy z Copilot użytkownicy mogą tworzyć nowe wiersze, dowcipy, historie, obrazy i inną zawartość z pomocą środowiska Copilot. Copilot może również edytować obrazy przekazywane przez użytkowników, jeśli o to poprosili.

  • Wykonywanie zadań w systemie Android.Użytkownicy mogą wchodzić w interakcje z Copilot za pośrednictwem platformy Android za pomocą głosu w celu wykonywania określonych zadań. Zadania te to ustawianie czasomierzy i alarmów, nawiązywanie połączeń telefonicznych, wysyłanie wiadomości SMS i zamawianie uber. Użytkownicy muszą potwierdzić połączenie telefoniczne, wiadomość SMS i zamówienie Uber, zanim zadania zostaną ukończone.

  • Pomaganie w badaniu.  Copilot może wykonywać zadania badawcze, przeglądając szczegółowe zasoby, oferując szczegółowe podziały tematów i łącząc się ze źródłami, aby pomóc użytkownikom wyjść poza szybkie odpowiedzi na bardziej złożone zapytania. Copilot może aktywnie generować spersonalizowane sugestie badań dla użytkowników na podstawie takich rzeczy jak wcześniejsze zapytania badawcze i pamięć Copilot. Użytkownicy mogą zrezygnować z personalizacji lub powiadomień w dowolnym momencie w ustawieniach.

  • Odkrywaj świat dzięki Copilot Vision. Aplikacja Copilot może wyświetlać ekran lub kanał kamery mobilnej oraz odpowiadać na pytania i komunikować się z Tobą za pomocą głosu. Copilot może błyskawicznie skanować, analizować i oferować szczegółowe informacje i sugestie w czasie rzeczywistym, aby pomóc Ci w pracy, przeglądaniu lub odkrywaniu świata. Aplikacja Copilot Vision jest dostępna w przeglądarce Edge, systemach Windows, iOS i Android.

  • Pobieranie informacji za pomocą łączników.Za Twoją zgodą Copilot może wyszukiwać pliki w chmurze i pracować z nimi przy użyciu naturalnego języka. Aplikacja Copilot może pobierać wiadomości e-mail, wyszukiwać kontakty i sprawdzać terminy kalendarza zarówno z programu Microsoft Outlook, jak i kont Google Gmail. 

  • Współpracuj z grupami Copilot. Za pomocą zaproszenia możesz dołączać do konwersacji grupowych z firmą Copilot lub tworzyć je, aby współpracować nad wspólnymi projektami i pomysłami.

Zagadnienia podczas wybierania innych przypadków użycia

Zachęcamy użytkowników do przejrzenia całej zawartości przed podjęciem decyzji lub działaniem na podstawie odpowiedzi Copilota, ponieważ AI może popełniać błędy. Ponadto istnieją pewne scenariusze, których zalecamy unikanie lub które są sprzeczne z naszymi warunkami użytkowania. Na przykład firma Microsoft nie zezwala na używanie rozwiązania Copilot w związku z nielegalną działalnością lub w celu promowania nielegalnej działalności.  

Ograniczenia

Modele językowe, obrazowe i audio, które są objęte doświadczeniem Copilota, mogą obejmować dane szkoleniowe, które mogą odzwierciedlać uprzedzenia społeczne, co z kolei może spowodować zachowanie Copilota w sposób postrzegany jako niesprawiedliwy, zawodny lub obraźliwy. Pomimo intensywnych szkoleń dotyczących modeli i dostosowywania bezpieczeństwa, a także wdrażania odpowiedzialnych systemów kontroli i bezpieczeństwa AI, które umieszczamy na danych szkoleniowych, monitach użytkowników i modelach wyjściowych, usługi oparte na SI są omalne i probabilistyczne. To sprawia, że trudno jest kompleksowo zablokować całą nieodpowiednią zawartość, co prowadzi do ryzyka, że potencjalne uprzedzenia, stereotypy, ungroundedness lub inne rodzaje szkód, które mogą pojawić się w treści generowanej przez AI. Poniżej wymieniono niektóre sposoby, w jakie te ograniczenia mogą występować w środowisku rozwiązania Copilot. 

  • Stereotypy: Doświadczenie Copilot może potencjalnie wzmocnić stereotypy. Na przykład, tłumacząc "On jest pielęgniarką" i "Ona jest lekarzem" na język bez płci, taki jak turecki, a następnie z powrotem na język angielski, Copilot może nieumyślnie przynieść stereotypowe (i niepoprawne) wyniki "Ona jest pielęgniarką" i "On jest lekarzem". Innym przykładem jest generowanie obrazu opartego na monitowaniu "Dzieci bez ojca", system może generować obrazy dzieci tylko z jednej rasy lub pochodzenia etnicznego, wzmacniając szkodliwe stereotypy, które mogą istnieć na publicznie dostępnych obrazach używanych do szkolenia modeli źródłowych. Copilot może również wzmocnić stereotypy oparte na zawartości obrazu wejściowego użytkownika, opierając się na składnikach obrazu i wprowadzając założenia, które mogą nie być prawdziwe. Wdrożyliśmy środki łagodzące, aby zmniejszyć ryzyko treści zawierających obraźliwe stereotypy, w tym klasyfikatorów danych wejściowych i wyjściowych, precyzyjnych modeli i komunikatów systemowych.

  • Nadreprezentacja i niedoreprezentacja: Copilot mógłby potencjalnie nadmiernie lub niedostatecznie reprezentować grupy ludzi, a nawet w ogóle ich nie reprezentować, w swoich odpowiedziach. Na przykład, jeśli monity tekstowe zawierające słowo "gej" zostaną uznane za potencjalnie szkodliwe lub obraźliwe, może to prowadzić do niedostatecznej reprezentacji uzasadnionych pokoleń na temat społeczności LGBTQIA+. Oprócz uwzględnienia klasyfikatorów danych wejściowych i wyjściowych, dostosowanych modeli, a także komunikatów systemowych, używamy szybkiego wzbogacenia w Designer jako jednego z kilku środków łagodzących w celu zmniejszenia ryzyka wystąpienia zawartości, która nadmiernie lub niedostatecznie reprezentuje grupy osób.

  • Nieodpowiednia lub obraźliwa zawartość: Środowisko Copilot może potencjalnie generować inne rodzaje nieodpowiednich lub obraźliwych treści. Przykłady obejmują możliwość generowania zawartości w jednej modalności (np. audio), która jest nieodpowiednia w kontekście monitu lub w porównaniu do tego samego wyniku w innej modalności (np. w tekście). Inne przykłady obejmują obrazy generowane przez AI, które potencjalnie zawierają szkodliwe artefakty, takie jak symbole nienawiści, treści związane z spornymi, kontrowersyjnymi lub ideologicznie polaryzacyjnymi tematami oraz treści obciążone seksualnie, które unikają filtrów zawartości związanych z płcią. Wprowadziliśmy środki łagodzące, aby zmniejszyć ryzyko pokoleń zawierających nieodpowiednie lub obraźliwe treści, takie jak klasyfikatory danych wejściowych i wyjściowych, precyzyjne modele i komunikaty systemowe.

  • Niezawodność informacji: Chociaż Copilot ma w razie potrzeby reagować wiarygodnymi źródłami, AI może popełniać błędy. Może to potencjalnie wygenerować bezsensowną zawartość lub wygenerować zawartość, która może brzmieć rozsądnie, ale jest faktycznie niedokładna. Nawet w przypadku rysowania odpowiedzi z danych sieci Web wysokiego urzędu odpowiedzi mogą błędnie przedstawiać tę zawartość w sposób, który może nie być całkowicie dokładny lub niezawodny. Przypominamy użytkownikom za pośrednictwem interfejsu użytkownika i w takiej dokumentacji, że Copilot może popełniać błędy. Nadal kształcemy również użytkowników na temat ograniczeń SI, takich jak zachęcanie ich do podwójnego sprawdzania faktów przed podjęciem decyzji lub działaniem na podstawie odpowiedzi Copilota. Gdy użytkownicy komunikują się z Copilot za pośrednictwem tekstu, będzie próbował uziemić się w wysokiej jakości danych internetowych, aby zmniejszyć ryzyko, że pokolenia są bez planu.

  • Wydajność wielojęzyczna: Mogą występować różnice w wydajności w różnych językach, a angielski osiąga najlepsze wyniki w momencie wydania zaktualizowanego rozwiązania Copilot. Poprawa wydajności w różnych językach jest kluczowym obszarem inwestycyjnym, a ostatnie modele doprowadziły do poprawy wydajności.

  • Ograniczenia audio: modele audio mogą wprowadzać inne ograniczenia. Ogólnie rzecz biorąc, jakość akustyczna wprowadzania mowy, szumu niezwiązanego z mową, słownictwa, akcentów i błędów wstawiania może mieć również wpływ na to, czy copilot przetwarza i reaguje na dane wejściowe audio użytkownika w zadowalający sposób. Ponadto, ponieważ monity użytkownika podczas korzystania z funkcji Copilot Voice nie powodują wyszukiwania w Internecie, copilot może nie być w stanie odpowiedzieć na bieżące zdarzenia w trybie głosowym.

  • Zależność od łączności internetowej: Zaktualizowane środowisko copilot korzysta z łączności internetowej do działania. Zakłócenia w łączności mogą mieć wpływ na dostępność i wydajność usługi.

Wydajność systemu

W wielu systemach AI wydajność jest często definiowana w odniesieniu do dokładności (tj. częstotliwości, w jaki system AI oferuje prawidłową prognozę lub dane wyjściowe). Dzięki Copilot skupiamy się na Copilot jako asystent opartym na sztucznej inteligencji, który odzwierciedla preferencje użytkownika. W związku z tym dwóch różnych użytkowników może przyjrzeć się tym samym wynikom i mieć różne opinie na temat ich przydatności lub istotności ze względu na ich wyjątkową sytuację i oczekiwania, co oznacza, że wydajność tych systemów musi być bardziej elastycznie zdefiniowana. Ogólnie bierzemy pod uwagę wydajność, aby oznaczać, że aplikacja działa zgodnie z oczekiwaniami użytkowników.

Najważniejsze wskazówki dotyczące zwiększania wydajności systemu 

Interakcja z interfejsem przy użyciu naturalnego języka konwersacji.    Interakcja z copilot w sposób, który jest wygodny dla użytkownika jest kluczem do uzyskania lepszych wyników poprzez środowisko. Podobnie jak przy wdrażaniu technik ułatwiających ludziom skuteczną komunikację w ich codziennym życiu, interakcja z Copilotem jako asystent wykorzystująca sztuczną inteligencję za pośrednictwem tekstu lub mowy znanej użytkownikowi może pomóc w wywołaniu lepszych wyników.

Środowisko użytkownika i jego wdrożenie.    Efektywne korzystanie z rozwiązania Copilot wymaga od użytkowników zrozumienia jego możliwości i ograniczeń. Może istnieć krzywa uczenia się, a użytkownicy mogą chcieć odwołać się do różnych zasobów Copilot (np. ten dokument i nasze często zadawane pytania dotyczące rozwiązania Copilot), aby skutecznie współpracować z usługą i korzystać z niej.

Mapowanie, mierzenie i zarządzanie ryzykiem

Podobnie jak inne technologie transformacyjne, wykorzystanie korzyści płynących z AI nie jest wolne od ryzyka, a podstawową częścią odpowiedzialnego programu microsoftowej inteligencji jest identyfikowanie i mapowanie potencjalnych zagrożeń, mierzenie tych zagrożeń i zarządzanie nimi poprzez tworzenie środków łagodzących i ciągłe ulepszanie Copilot w czasie. W poniższych sekcjach opisano nasze iteracyjne podejście do mapowania, mierzenia i zarządzania potencjalnymi zagrożeniami.

Mapa: Staranne planowanie i testy kontradyktoryjności przed wdrożeniem, takie jak czerwone łączenie zespołów, pomagają nam mapować potencjalne zagrożenia. Podstawowe modele, które zasilają środowisko Copilot, przeszły testy zespołu czerwonego od testerów reprezentujących wielodyscyplinarne perspektywy w odpowiednich obszarach tematów. Testy te zostały zaprojektowane w celu oceny, w jaki sposób najnowsza technologia będzie działać zarówno z dodatkowymi zabezpieczeniami, jak i bez żadnych dodatkowych zabezpieczeń. Celem tych ćwiczeń na poziomie modelu jest wytwarzanie szkodliwych reakcji, powierzchni potencjalne możliwości niewłaściwego użycia, a także zidentyfikować możliwości i ograniczenia.

Przed udostępnieniem publicznie środowiska Copilot w ograniczonej wersji zapoznawczej przeprowadziliśmy również red teaming na poziomie aplikacji, aby ocenić Copilot pod kątem niedociągnięć i luk w zabezpieczeniach. Ten proces pomógł nam lepiej zrozumieć, w jaki sposób system może być używany przez wielu różnych użytkowników i pomógł nam ulepszyć nasze środki łagodzące.

Środek: Oprócz oceny Copilot na podstawie naszych istniejących ocen bezpieczeństwa, użycie opisanego powyżej czerwonego zespołu pomogło nam opracować oceny i odpowiedzialne metryki AI odpowiadające zidentyfikowanym potencjalnym zagrożeniom, takim jak jailbreaks, szkodliwa zawartość i zawartość bez mielizny.

Zebraliśmy dane konwersacyjne dotyczące tych zagrożeń przy użyciu kombinacji uczestników i automatycznego potoku generowania konwersacji. Każda ocena jest następnie oceniana przez pulę wyszkolonych adnotatorów ludzkich lub automatyczny rurociąg adnotacji. Za każdym razem, gdy produkt się zmienia, są aktualizowane istniejące środki łagodzące lub proponowane są nowe środki łagodzące, aktualizujemy nasze potoki oceny, aby ocenić zarówno wydajność produktu, jak i odpowiedzialne metryki AI. Te zautomatyzowane potoki kontekstowe oceny są połączeniem zebranych konwersacji z osobami oceniającymi i syntetycznymi konwersacjami generowanymi z maszynami llms monitowanymi o testowanie polityki w sposób kontradyktoryjny. Każda z tych ocen bezpieczeństwa jest automatycznie oceniana za pomocą maszyn llm. W przypadku nowo opracowanych ocen każda ocena jest początkowo oceniana przez osoby etykietujące, które odczytują zawartość tekstu lub odsłuchają dane wyjściowe audio, a następnie konwertują je na automatyczne oceny oparte na instalatorze LLM.

Zamierzone zachowanie naszych modeli w połączeniu z potokami oceny — zarówno ludzkimi, jak i zautomatyzowanymi — umożliwia nam szybkie wykonywanie pomiarów pod kątem potencjalnego ryzyka w skali. W miarę jak z czasem identyfikujemy nowe problemy, nadal rozszerzamy zestawy pomiarów w celu oceny dodatkowych zagrożeń. 

Zarządzanie: Ponieważ zidentyfikowaliśmy potencjalne zagrożenia i nadużycia za pomocą czerwonego zespołu i zmierzyliśmy je przy użyciu opisanych powyżej metod, opracowaliśmy dodatkowe środki łagodzące specyficzne dla środowiska Copilot. Poniżej opisujemy niektóre z tych środków zaradczych. Będziemy nadal monitorować środowisko rozwiązania Copilot, aby poprawić wydajność produktu i nasze podejście do łagodzenia ryzyka. 

  • Etapowe plany udostępniania i ciągła ocena.    Dokładamy wszelkich starań, aby stale uczyć się i ulepszać nasze podejście do odpowiedzialnej sztucznej inteligencji w miarę rozwoju naszych technologii i zachowań użytkowników. Nasza strategia stopniowego udostępniania była podstawową częścią tego, jak bezpiecznie przenosimy naszą technologię z laboratorium na świat i zobowiązujemy się do celowego, przemyślanego procesu, aby zapewnić korzyści płynące z doświadczenia Copilot. Regularnie wprowadzamy zmiany w copilot, aby poprawić wydajność produktu i istniejące środki łagodzące oraz wdrożyć nowe środki łagodzące w odpowiedzi na nasze wnioski.

  • Wykorzystanie klasyfikatorów i komunikatu systemowego w celu ograniczenia potencjalnego ryzyka lub niewłaściwego użycia.    W odpowiedzi na monity użytkowników maszyny llms mogą generować problematyczną zawartość. W powyższych sekcjach Zachowanie i ograniczenia systemu omówiliśmy typy zawartości, które próbujemy ograniczyć. Klasyfikatory i komunikat systemowy to dwa przykłady środków łagodzących zaimplementowanych w rozwiązaniach Copilot w celu zmniejszenia ryzyka wystąpienia tego typu zawartości. Klasyfikatorzy klasyfikują tekst w celu oflagowania potencjalnie szkodliwej zawartości w monitach użytkowników lub wygenerowanych odpowiedziach. Korzystamy również z istniejących najlepszych rozwiązań do korzystania z komunikatu systemowego, który polega na udzielaniu instrukcji modelowi w celu dostosowania jego zachowania do zasad AI firmy Microsoft i oczekiwań użytkowników.

  • Zgoda na przekazywanie obrazów Copilot.    Gdy użytkownik po raz pierwszy przekaże do Copilot obraz zawierający twarze, zostanie poproszony o wyrażenie zgody na przekazanie swoich danych biometrycznych do Copilot. Jeśli użytkownik nie zaloguje się, obraz nie zostanie wysłany do rozwiązania Copilot. Wszystkie obrazy, niezależnie od tego, czy zawierają twarze, zostaną usunięte w ciągu 30 dni od zakończenia konwersacji.

  • Ujawnienie AI.    Copilot ma również informować ludzi, że komunikują się z systemem AI. Gdy użytkownicy angażują się w obsługę rozwiązania Copilot, oferujemy różne punkty dotykowe ułatwiające im zrozumienie możliwości systemu, ujawnienie im, że Copilot jest obsługiwany przez sztuczną inteligencję, oraz ograniczenia dotyczące komunikacji. Środowisko zostało zaprojektowane w ten sposób, aby pomóc użytkownikom w maksymalnym wykorzystaniu możliwości rozwiązania Copilot i zminimalizowaniu ryzyka nadmiernej zależności. Ujawnienie pomaga również użytkownikom lepiej zrozumieć Copilot i ich interakcje z nim.

  • Pochodzenie medialne.    Gdy program Copilot generuje obraz, włączyliśmy funkcję "Poświadczenia zawartości", która używa metod kryptograficznych do oznaczania źródła lub "pochodzenia" wszystkich obrazów generowanych przez AI utworzonych przy użyciu rozwiązania Copilot. Technologia ta wykorzystuje standardy ustalone przez Koalicję na rzecz Zawartości i Autentyczności (C2PA), aby dodać dodatkową warstwę zaufania i przejrzystości dla obrazów generowanych przez AI.

  • Automatyczne wykrywanie zawartości.    Kiedy użytkownicy przesyłają obrazy w ramach monitu czatu, Copilot wdraża narzędzia do wykrywania wykorzystywania seksualnego dzieci i obrazów nadużyć (CSEAI). Firma Microsoft zgłasza wszystkie pozorne CSEAI do National Center for Missing and Exploited Children (NCMEC), zgodnie z wymogami amerykańskiego prawa. Gdy użytkownicy przekazują pliki do analizy lub przetwarzania, copilot wdraża automatyczne skanowanie w celu wykrywania zawartości, która może prowadzić do ryzyka lub niewłaściwego użycia, takiego jak tekst, który może odnosić się do nielegalnych działań lub złośliwego kodu.

  • Warunki użytkowania i Kodeks postępowania.    Użytkownicy powinni przestrzegać obowiązujących warunków użytkowania i kodeksu postępowania firmy Microsoft oraz zasad zachowania poufności informacji firmy Microsoft, które między innymi informują ich o dopuszczalnych i niedopuszczalnych zastosowaniach oraz o konsekwencjach naruszenia warunków. Warunki użytkowania udostępniają również dodatkowe informacje dla użytkowników i służą jako punkt odniesienia dla użytkowników w celu poznania rozwiązania Copilot. Użytkownicy, którzy dopuszczają się poważnych lub powtarzających się naruszeń, mogą zostać tymczasowo lub trwale zawieszeni w usłudze.

  • Opinie, monitorowanie i nadzór.    Środowisko Rozwiązania Copilot opiera się na istniejącym narzędziu, które umożliwia użytkownikom przesyłanie opinii, które są sprawdzane przez zespoły operacyjne firmy Microsoft. Ponadto nasze podejście do mapowania, pomiaru i zarządzania ryzykiem będzie się rozwijać w miarę jak się dowiemy więcej, a my już wprowadzamy ulepszenia na podstawie opinii zebranych w okresach podglądu.

  • Wykrywanie i reagowanie na samobójstwo i Self-Harm ryzyko.    Copilot używa klasyfikatorów uczenia maszynowego przeszkolonych do rozpoznawania wzorców językowych, które mogą wskazywać na samobójstwo lub zamiar samookaleczenia ze strony użytkownika. Po wykryciu takiej zawartości system odłącza się od konwersacji i zamiast tego dostarcza kartę pomocy technicznej z zasobami pomocy technicznej w sytuacjach kryzysowych (na przykład suicide and crisis lifeline w wieku 988 lat w Stany Zjednoczone), zachęcając użytkowników do szukania profesjonalnej pomocy. Copilot nie udziela porad; jego rola jest ograniczona do wykrywania i odwołania w celu zapewnienia bezpieczeństwa użytkowników.

Dowiedz się więcej o odpowiedzialnej SI

Raport dotyczący przejrzystości odpowiedzialnej SI firmy Microsoft

Zasady dotyczące SI firmy Microsoft

Zasoby odpowiedzialnej SI firmy Microsoft

Kursy Microsoft Azure Learning dotyczące odpowiedzialnej SI

Dowiedz się więcej o Microsoft Copilot

Microsoft Copilot często zadawanych pytań

Informacje o tym dokumencie

© 2024 Microsoft Corporation. Wszelkie prawa zastrzeżone. Ten dokument jest dostarczany "w takiej postaci, w jakim jest" i służy jedynie celom informacyjnym. Informacje i widoki wyrażone w tym dokumencie, w tym adresy URL i inne odwołania do witryn internetowych, mogą ulec zmianie bez powiadomienia. Użytkownik ponosi ryzyko związane z jego używaniem. Niektóre przykłady dotyczą tylko ilustracji i są fikcyjne. Żadne rzeczywiste skojarzenie nie jest zamierzone ani wywnioskować.

Ten dokument nie jest przeznaczony i nie powinien być interpretowany jako porada prawna. Jurysdykcja, w której działasz, może mieć różne wymagania prawne lub prawne, które mają zastosowanie do Twojego systemu AI. Skontaktuj się ze specjalistą prawnym, jeśli nie masz pewności co do przepisów prawnych, które mogą mieć zastosowanie do Twojego systemu, zwłaszcza jeśli uważasz, że mogą one mieć wpływ na te zalecenia. Należy pamiętać, że nie wszystkie te zalecenia i zasoby będą odpowiednie dla każdego scenariusza i odwrotnie, te zalecenia i zasoby mogą być niewystarczające w przypadku niektórych scenariuszy.

Opublikowano: 2024-10-01

Ostatnia aktualizacja: 2024-10-01

Potrzebujesz dalszej pomocy?

Chcesz uzyskać więcej opcji?

Poznaj korzyści z subskrypcji, przeglądaj kursy szkoleniowe, dowiedz się, jak zabezpieczyć urządzenie i nie tylko.