Последна актуализация: 19 декември 2025 г.

Какво е бележка за прозрачност?

AI системата включва не само технологията, но и хората, които ще я използват, хората, които ще бъдат засегнати от нея, и средата, в която тя е разположена. Бележките за прозрачност на Microsoft имат за цел да ви помогнат да разберете как работи технологията на ИИ зад Copilot, изборите, които направихме, които влияят върху производителността и поведението на системата, и важността от мисленето за цялата система, така че потребителите на Copilot да могат да поемат контрола над собствения си опит и да разберат стъпките, които предприемаме, за да предоставим безопасен и защитен продукт.

Бележките за прозрачност на Microsoft са част от по-общите усилия в Microsoft за прилагане на принципите на ИИ. За да научите повече, вижте Принципи на ИИ на Microsoft

Основите на Microsoft Copilot

Въведение

Copilot е среда, поддържана от ИИ, която ще помогне на потребителите да получат информацията, която търсят, докато са готови да подпомогнат потребителите при отговарянето на широк набор от въпроси, независимо от ситуацията или темата. Обновеният Copilot надхвърля отговарянето на заявки за извличане на основна информация и се фокусира върху генерирането на съдържание, за да предложи по-проактивна поддръжка на потребителите при изпълнение на задачи. Имаме все по-голяма представа за това как ИИ има потенциала да помогне на хората да научат, открият и да бъдат по-креативни, което изисква от нас да изградим различен тип продукт. Новата среда за работа на Copilot цели да се превърне в нов тип изживяване, което е отворено и динамично, за да отговаря по-добре на нуждите на потребителите по начин, който е по-интуитивен.

В Microsoft приемаме нашия ангажимент към отговорен ИИ сериозно. Актуализираната среда за работа на Copilot е разработена в съответствие с Принципите на ИИ на Microsoft, отговорния ИИ на Microsoft Standard и в партньорство с отговорни ИИ експерти във фирмата, включително Office на отговорен AI на Microsoft, нашите инженерни екипи, Microsoft Research и Aether. Можете да научите повече за отговорния ИИ в Microsoft тук.  

В този документ описваме нашия подход към отговорния ИИ за Копилот. Преди издаването използвахме най-съвременните методи на Microsoft за нанасяне, измерване и управление на потенциалните рискове и неправилно използване на системата и за осигуряване на ползите за потребителите. Тъй като продължаваме да развиваме Копилот, продължихме да учим и подобряваме нашите отговорни усилия за ИИ. Този документ ще се актуализира периодично, за да съобщава нашите развиващи се процеси и методи.  

Ключови термини

Класификатори    Модели за машинно обучение, които помагат за сортирането на данни в обозначени класове или категории информация. В актуализираната среда за работа на Copilot един от начините, по които използваме класификаторите, е да помогнем за откриването на потенциално опасно съдържание, подадено от потребители или генерирано от системата, за да смекчим генерирането на това съдържание и злоупотребата или злоупотребата със системата. 

Заземяване    За определени разговори, в които потребителите търсят информация, Copilot се застъпва в резултатите от търсенето в интернет. Това означава, че Copilot центрира отговора си върху високопоставено съдържание от интернет и предоставя цитати с хипервръзки, следвани от генерирани текстови отговори. Имайте предвид, че в момента подканите от потребителя в гласов режим няма да задействат търсене в интернет, затова никакви отговори няма да включват цитати.

Големи езикови модели (LLM)    Големи езикови модели (LLM) в този контекст са модели на ИИ, които са обучени в големи количества текстови данни за прогнозиране на думи в последователност. Незабавните съобщения могат да изпълняват разнообразни задачи, като например генериране на текст, обобщаване, превод, класификация и др.

Смекчаване    Метод или комбинация от методи, предназначени да намалят потенциалните рискове, които могат да възникнат от използването на функциите на ИИ в Copilot.

Многомодални модели (MMM)    Многомодалните модели (MMM) са модели на ИИ, които са обучени за различни типове данни, като например текст, изображения или аудио. Тези модели могат да изпълняват различни задачи, като например писане на текст, описване на изображения, разпознаване на говор и намиране на информация за различни типове данни.

Подкани    Въвежда във формата на текст, изображения и/или аудио, които потребителят изпраща на Copilot, за да взаимодейства с функциите на ИИ в Copilot.

Работа в червен екип    Техники, използвани от експерти за оценка на ограниченията и уязвимостите на дадена система, както и за проверка на ефективността на планираните смекчавания. Тестването на червения екип включва тестващи, които възприемат доброкачествени и обратни персони за идентифициране на потенциалните рискове и се различават от системното измерване на рисковете.

Отговор    Текст, изображения или аудио, които Copilot извежда в отговор на подкана или като част от разговора с потребителя. Синонимите за "отговор" включват "завършване", "поколение" и "отговор".

Малки езикови модели (SLM)    Малки езикови модели (SLM) в този контекст са модели на ИИ, които са обучени за по-малки, по-фокусирани количества данни в сравнение с големите езикови модели. Въпреки по-малкия си размер, SLM могат да изпълняват редица задачи, като например генериране на текст, обобщаване, превод и класификация. Въпреки че е възможно те да не съответстват на редица възможности на незабавните съобщения, SLM често са по-ефективни от гледна точка на ресурсите и могат да бъдат високо ефективни за конкретни, целеви приложения. 

Системно съобщение    Системното съобщение (понякога наричано "метапромпт") е програма, която служи за насочване на поведението на системата. Части от системното съобщение помагат за подравняване на поведението на системата с принципите на Microsoft AI и очакванията на потребителя. Например системното съобщение може да включва ред като "не предоставяйте информация или създавайте съдържание, което може да причини физическа, емоционална или финансова вреда". 

Възможности

Поведение на системата

С Copilot разработихме иновативен подход, за да предоставим на потребителите по-персонализирано изживяване с ИИ за привлекателно изживяване, което може да помогне на потребителите с най-различни задачи. Този иновативен подход използва редица съвременни технологии, като например езици и многомодални модели от Microsoft, OpenAI и други разработчици на модели. Работихме по внедряването на техники за безопасност за моделите, които са в основата на новата среда за работа на Copilot преди публичното издание, за да разработим персонализиран набор от възможности и поведения, които предоставят подобрена среда за работа с Copilot. В актуализираното Copilot потребителите могат да изпращат подкани с текст или глас на естествен език. Отговорите се представят на потребителите в няколко различни формата, като отговори в чат в текстов вид (при необходимост с традиционни връзки към уеб съдържание) и изображения (ако искане за изображение е направено като част от подканата). Ако потребителите изпращат подкани на глас на естествен език в гласовия режим copilot, те ще получат аудио отговори. 

Когато потребител въведе подкана в Copilot, подканата, хронологията на разговорите и системното съобщение се изпращат чрез няколко класификатола за въвеждане, за да се помогне за филтрирането на опасно или неподходящо съдържание. Това е решаваща първа стъпка, която помага за подобряване на производителността на модела и за намаляване на ситуации, при които потребителите могат да се опитат да подканят модела по начин, който може да бъде опасен. След като подканата премине през входните класификатори, тя се изпраща до SLM, за да се определи дали искането изисква заземяващи данни от уеб и кой модел на език трябва да отговори на искането. Всички модели генерират отговор, като използват подканите на потребителя и хронологията на последните разговори за контекстуализиране на искането, системното съобщение за съгласуване на отговорите с принципите на ИИ на Microsoft и очакванията на потребителите и ако е необходимо, подравняват отговорите с резултатите от търсенето към наземни отговори в съществуващо, високо класиране на съдържанието от интернет.  

Отговорите се представят на потребителите в няколко различни формата, като отговори в чат в текстов вид, традиционни връзки към уеб съдържание, изображения и аудио отговори. Когато отговорите са предоставени под формата на текст – а отговорите са заземяни с данни от интернет – резултатът съдържа цитати с хипервръзки, изброени под текста, така че потребителите да имат достъп до уеб сайтовете, които са използвани за основа на отговора, и да научат повече за темата от там. Copilot може също да изпълнява код за завършване на сложни изчисления и генериране на графики. Copilot може да съхранява конкретни факти, които потребителите искат да запомни, което му позволява да генерира по-подходящи отговори и предложения въз основа на този контекст. Copilot може също да изтрие записаните факти, когато потребителите поискат да ги забравят изрично.

Copilot също помага на потребителите да създават нови истории, стихотворения, текстове на песни и изображения. Когато Copilot открие намерението на потребителя да генерира творческо съдържание (като например потребителска подкана, която започва с "напишете ми ..."), системата в повечето случаи ще генерира съдържание, отговарящо на подканата на потребителя. По същия начин, когато Copilot открие намерението на потребителя да генерира изображение (като например подкана на потребителя, която започва с "начертай ми ..."), Copilot в повечето случаи ще генерира изображение, което отговаря на подканата на потребителя. Когато Copilot открие намерението на потребителя да промени качено изображение (като например подкана на потребителя, която започва с "добавяне на ..."), Copilot в повечето случаи ще промени изображение, отговарящо на подканата на потребителя. Копилотът може да не реагира с творческо съдържание, когато подканата на потребителя съдържа определени изрази, които могат да доведат до проблемно съдържание.

Потребителите с акаунти в Microsoft (MSA) вече имат възможност да се абонират за Copilot Pro, който предлага подобрена среда за работа, включително ускорена производителност, използване на възможностите на Copilot Voice за по-дълги периоди от време, а в някои случаи и достъп до нови, експериментални функции. Copilot Pro в момента се предлага в ограничен брой държави и планираме скоро да предоставим Copilot Pro на повече пазари.

Предвидено поведение за безопасност

Нашата цел за Copilot е да бъдем полезни за потребителите. Като използваме най-добрите практики от други продукти и услуги на ИИ на Microsoft, се стремим да ограничим Copilot от генериране на проблемно съдържание и да увеличим вероятността от безопасно и положително потребителско изживяване. Въпреки че сме предприели стъпки за намаляване на рисковете, жанративните модели на ИИ като тези зад Copilot са достоверни и могат да правят грешки, което означава, че смекчаванията понякога може да не успеят да блокират вредни потребителски подкани или генерирани от ИИ отговори. Ако срещнете опасно или неочаквано съдържание при използване на Copilot, уведомете ни чрез предоставяне на обратна връзка, така че да продължим да подобряваме работата.

Използване на случаи

Очаквана употреба

Copilot е предназначена да подкрепя потребителите при отговарянето на широк набор от въпроси, независимо от ситуацията или темата. Потребителите могат да взаимодействат с Copilot с помощта на текстови, графични и аудио входове, при които взаимодействията са предназначени да се чувстват по-скоро като естествени разговори със система от ИИ. Освен това, ако потребителите взаимодействат с Copilot чрез текст, за да потърсят конкретна информация за теми, където Copilot може да изисква повече информация, за да даде по-точен отговор, работата е предназначена да свърже потребителите със съответните резултати от търсенето, да прегледа резултатите от интернет и да обобщи информацията, която потребителите търсят. В Copilot потребителите могат да: 

  • Обобщавайте информацията в реално време, когато чатите чрез текст.    Когато потребителите взаимодействат с Copilot чрез текст, системата ще извършва търсения в интернет, ако има нужда от повече информация, и ще използва най-добрите резултати от търсенето в интернет, за да генерира резюме на информацията, която да представя на потребителите. Тези резюмета включват цитати към уеб страници, които помагат на потребителите да виждат и да имат лесен достъп до източниците за резултати от търсенето, които са помогнали на резюмето на Copilot. Потребителите могат да щракнат върху тези връзки, за да отидат направо към източника, ако искат да научат повече.

  • Провеждайте чат с AI система с помощта на текст.    Потребителите могат да разговарят с Copilot чрез текстово съобщение и да задават последващи въпроси, за да намерят нова информация и да получат поддръжка по редица теми.

  • Интерфейс с ИИ с помощта на глас и облик.    Copilot може не само да получава аудиовход, но и да генерира аудио изход в един от четири гласа, избрани от потребителите, и представя визуален вид за обогатяване на взаимодействието. Възможностите за аудио към аудио и облик позволяват на потребителите да взаимодействат с Copilot по по-естествен и плавен начин.

  • Получаване на смилаемо дискусионно съдържание.    Потребителите могат да използват Copilot, за да получат резюме на новините, времето и други актуализации въз основа на избрани тематични области чрез функцията Copilot Daily и да слушат тези брифинги във формат, подобен на подкаст. Тази функция ще извлича съдържание от упълномощени източници, които имат споразумения с Microsoft.

  • Получаване на помощ за генериране на нови идеи.    Всеки път, когато потребителите си взаимодействат с изживяването с Copilot, те ще виждат набор от карти, върху които могат да щракнат, за да започнат да разговарят с Copilot за полезни и интересни теми. Ако потребителите са взаимодействали с други потребителски услуги на Microsoft, картите ще бъдат персонализирани в съответствие с нашите правила за поверителност. С течение на времето картите в Copilot могат да бъдат персонализирани въз основа на хронологията на чата на потребителя. Потребителите могат да се отпишат от персонализирането по всяко време от настройките.

  • Генерирайте творческо съдържание.    Когато разговарят с Copilot, потребителите могат да създават нови стихотворения, шеги, истории, изображения и друго съдържание с помощта на изживяването с Copilot. Копилотът може също да редактира изображения, качени от потребители, ако бъде поискано.

  • Изпълняване на задачи на Android.Потребителите могат да взаимодействат с Copilot чрез платформата на Android чрез глас, за да изпълняват определени задачи. Тези задачи задават таймери и аларми, извършват телефонни обаждания, изпращат SMS съобщения и поръчват Uber. Потребителите трябва да потвърдят телефонното обаждане, SMS съобщението и поръчката на Uber, преди да се извършат задачите.

  • "Помощ за изследване".  Копилотът може да изпълнява задачи за изследване, като извърта по-задълбочени ресурси, предлага подробни разбивки на темите и се свързва с източници, за да помогне на потребителите да преминат отвъд бързите отговори за по-сложни заявки. Копилотът може проактивно да генерира персонализирани предложения за проучвания за потребители въз основа на неща като предишни заявки за изследване и памет на Copilot. Потребителите могат да се отпишат от персонализирането или известията по всяко време от настройките.

  • Запознайте се със света с копилот визуалното търсене. Copilot може да преглежда екрана или информационния канал на мобилната камера и да използва гласа си, за да отговаря на въпроси и да взаимодейства с вас. Copilot може незабавно да сканира, анализира и предлага прозрения и предложения в реално време, за да ви помогне, докато работите, преглеждате или разглеждате света. Copilot Визуално търсене е налично за Edge, Windows, iOS и Android.

  • Извличане на информация с конектори.С ваше съгласие Copilot може да търси и да взаимодейства с вашите файлове в облака на естествен език. Copilot може да извлича имейли, да търси контакти и да проверява срещи в календара от акаунтите за Microsoft Outlook и Google Gmail. 

  • Работете съвместно с групите на Copilot. С покана можете да се присъединявате към или да създавате групови разговори с Copilot, за да си сътрудничите по съвместни проекти и идеи.

Съображения при избора на други случаи на използване

Насърчаваме потребителите да преглеждат цялото съдържание, преди да вземат решения или да действат въз основа на отговорите на Copilot, тъй като ИИ може да прави грешки. Освен това има определени сценарии, които препоръчваме да избягвате или които важат за нашите Условия на използване. Например Microsoft не позволява Copilot да се използва във връзка с незаконни дейности или за каквато и да е цел за насърчаване на незаконни дейности.  

Ограничения

Езиковите, графичните и аудио моделите, които подобават работата на Copilot, може да включват данни за обучение, които могат да отразят обществените предразсъдения, което на свой ред потенциално може да доведе до поведението на Copilot по начини, които се възприемат като нелоялни, ненадеждни или обидни. Въпреки интензивното ни моделно обучение и фино настройване на безопасността, както и прилагането на отговорните системи за контрол и безопасност на ИИ, които поставяме върху данните за обучение, подканите от потребителите и моделните резултати, услугите, управлявани от ИИ, са попаднали и пробабилни. Това затруднява цялостното блокиране на цялото неподходящо съдържание, което води до рискове, че потенциални предубеждения, стереотипи, безпристрастност или други видове вреда, които могат да се появят в съдържание, генерирано от ИИ. Някои от начините, по които тези ограничения може да се проявяват в средата за работа с Copilot, са изброени тук. 

  • Стереотип: Изживяването с Copilot може потенциално да засили стереотипите. Например, когато превеждате "Той е медицинска сестра" и "Тя е лекар" на език без пол, като например турски и след това отново на английски, Копилот може по невнимание да даде стереотипните (и неправилни) резултати от "Тя е медицинска сестра" и "Той е лекар". Друг пример е, когато генерирате изображение, базирано на подканата "Деца без баща", системата може да генерира изображения на деца само от една раса или етнос, засилвайки вредни стереотипи, които могат да съществуват в публично достъпни изображения, използвани за обучаване на основните модели. Копилотът може също да засили стереотипите въз основа на съдържанието на изображението за въвеждане на потребителя, като разчита на компонентите на изображението и прави предположения, които може да не са верни. Внедрихме смекчавания на последствията, за да намалим риска от съдържание, което съдържа обидни стереотипи, включително класификатори на входни и изходни данни, прецизни модели и системни съобщения.

  • Свръхпредставяне и по-слабо представяне: Копилотът може потенциално да надхвърли или да представлява по-слабо групи от хора или дори изобщо да не ги представя в отговорите си. Например ако текстовите подкани, които съдържат думата "гей", бъдат открити като потенциално опасни или обидни, това може да доведе до недостатъчно представяне на законните поколения за общността на LGBTQIA+. В допълнение към включването на класификатори за въвеждане и изход, фино настроени модели, както и системни съобщения, ние използваме бързо обогатяване с Designer като едно от няколкото смекчавания на риска от съдържание, което припокрива или не представя по-малко групи от хора.

  • Неподходящо или обидно съдържание: Средата за работа с Copilot може потенциално да създаде други типове неподходящо или обидно съдържание. Примерите включват възможността за генериране на съдържание с една модалност (например аудио), която е неподходяща в контекста на подканата си или в сравнение с един и същ резултат с различна модалност (например текст). Други примери включват генерирани от ИИ изображения, които потенциално съдържат вредни артефакти, като символи на, съдържание, което се отнася до оспорвани, спорни или идеологически поляризиращи теми, както и сексуално заредено съдържание, което избягва филтри за съдържание, свързано със сексуално съдържание. Ние сме въвели сме смекчаващи мерки за намаляване на риска от поколения, които съдържат неподходящо или обидно съдържание, като например класификатори на входни и изходни данни, прецизни модели и системни съобщения.

  • Надеждност на информацията: Въпреки че Copilot има за цел да отговори с надеждни източници, когато е необходимо, ИИ може да прави грешки. Той може потенциално да генерира нечувствително съдържание или да създава съдържание, което може да звучи разумно, но фактически неточно. Дори когато рисувате отговори от уеб данни с висок авторитет, отговорите може да предпочетат погрешно това съдържание по начин, който може да не е напълно точен или надежден. Напомняме на потребителите чрез потребителския интерфейс и в документация като този, че Copilot може да прави грешки. Също така продължаваме да обучаваме потребителите относно ограниченията на ИИ, като например да ги насърчаваме да проверяват фактите два пъти преди вземането на решения или да действат въз основа на отговорите на Copilot. Когато потребителите взаимодействат с Copilot чрез текст, той ще се опита да се заземи в висококачествени уеб данни, за да се намали рискът поколенията да бъдат неоградени.

  • Многоезична производителност: Възможно е да има разлики в производителността на различни езици, като английският език работи най-добре в момента на пускане на актуализираното Copilot. Подобряването на производителността на различните езици е ключова инвестиционна област, а последните модели са довели до подобряване на производителността.

  • Ограничения на звука: Моделите на звука може да въвеждат други ограничения. Най-общо казано, акустичната качество на говора, неговорния шум, речника, ударенията и грешките при вмъкване може също да повлияе на това дали Copilot обработва и отговаря на аудио входа на потребителя по задоволителен начин. Освен това, тъй като потребителят подканва, когато използва copilot глас, няма да задейства уеб търсения, Копилот може да не успее да отговори на текущи събития в гласов режим.

  • Зависимост от интернет връзката: Актуализираната среда за работа на Copilot разчита на интернет връзката, за да функционира. Прекъсването на връзката може да окаже влияние върху наличността и производителността на услугата.

Производителност на системата

В много системи с ИИ производителността често се определя във връзка с точността (т.е. колко често AI системата предлага правилна прогноза или изход). С Copilot се фокусираме върху Copilot като помощник, поддържащ ИИ, който отразява предпочитанията на потребителя. Поради това двама различни потребители могат да гледат един и същ резултат и да имат различни мнения колко полезно или подходящо е това за тяхната уникална ситуация и очаквания, което означава, че производителността за тези системи трябва да бъде дефинирана по-гъвкаво. Като цяло считаме, че производителността означава, че приложението се изпълнява според очакванията на потребителите.

Най-добри практики за подобряване на производителността на системата 

Взаимодействайте с интерфейса, като използвате естествен, разговорен език.    Взаимодействието с Copilot по начин, който е удобен за потребителя, е от ключово значение за получаването на по-добри резултати чрез изживяването. Подобно на техниките за възприемане, които помагат на хората ефективно да комуникират в ежедневния си живот, взаимодействието с Copilot като помощник, поддържащ ИИ, чрез текст или реч, които са познати на потребителя, може да помогне да предизвикат по-добри резултати.

Потребителски опит и усвояване.    Ефективното използване на Copilot изисква потребителите да разбират възможностите и ограниченията му. Може да има образователна крива и потребителите може да искат да се обръщат към различни ресурси на Copilot (например този документ и нашите ЧЗВ за Copilot), за да взаимодействат ефективно с услугата и да се възползват от нея.

Картографиране, измерване и управление на рискове

Подобно на други технологии за трансформация, използването на ползите от ИИ не е без риск, а основната част от програмата за отговорен ИИ на Microsoft е предназначена да идентифицира и картографиране на потенциалните рискове, да измерва тези рискове и да ги управлява чрез изграждане на смекчавания и непрекъснато подобряване на Копилот с течение на времето. В разделите по-долу описваме нашия итеративен подход за нанасяне, измерване и управление на потенциалните рискове.

Карта: Внимателното планиране и тестването преди внедряването, като например червеният екип, ни помага да нанасяме потенциални рискове. Основните модели, които подпомагат работата с Copilot, преминаха през червени тестове от тестващи, които представят мултидисциплинарни перспективи в съответните тематични области. Това тестване има за цел да оцени как най-новите технологии ще работят както с, така и без да се прилагат допълнителни предпазни мерки за нея. Намерението на тези упражнения на ниво модел е да се генерират вредни реакции, потенциални възможности за неправилно използване на повърхността и да се идентифицират възможности и ограничения.

Преди да направим публично достъпна практическата работа с Copilot в ограничен предварителен преглед на изданията, също така извършихме червен екип на ниво приложение за оценка на Copilot за недостатъци и уязвимости. Този процес ни помогна да разберем по-добре как системата може да се използва от голямо разнообразие от потребители и ни помогна да подобрим нашите смекчавания.

Мярка: В допълнение към оценката на Copilot спрямо съществуващите ни оценки за безопасност, използването на червения екип, описан по-горе, ни помогна да разработим оценки и отговорни метрики на ИИ, съответстващи на установените потенциални рискове, като например джайлбрейси, опасно съдържание и неоправдано съдържание.

Събрахме данни за разговори, насочени към тези рискове, като използвахме комбинация от човешки участници и автоматизиран канал за генериране на разговори. След това всяка оценка се оценява или от група обучени човешки анотатори, или от автоматизиран канал за анотация. Всеки път, когато се актуализират промените в продукта, съществуващите смекчавания се актуализират или се предлагат нови смекчавания, ние актуализираме нашите канали за оценка, за да оценим както производителността на продукта, така и отговорните метрики за ИИ. Тези автоматизирани контекстни канали за оценка са комбинация от събрани разговори с човешки оценители и синтетични разговори, генерирани с незабавни съобщения, подканени да тестват правилата по несгоден начин. Всяка от тези оценки за безопасност автоматично се оценява с LLM. При новоразработените оценки всяка оценка първоначално се оценява от хора, които четат текстовото съдържание или слушат аудиоизхода, а след това се преобразуват в автоматични, базирани на LLM оценки.

Предвиденото поведение на нашите модели в комбинация с нашите канали за оценка – както човешки, така и автоматизирани – ни дава възможност бързо да извършваме измервания за потенциални рискове в мащаба. Тъй като идентифицираме нови проблеми с течение на времето, продължаваме да разширяваме измервателните набори, за да оценяваме допълнителни рискове. 

Управление: Тъй като идентифицирахме потенциалните рискове и злоупотребата с червени екипи и ги измервахме с описаните по-горе подходи, разработихме допълнителни смекчавания на последствията, които са специфични за опита с Copilot. По-долу описваме някои от тези смекчавания. Ще продължим да следим опита на Copilot, за да подобрим производителността на продукта и нашия подход за намаляване на риска. 

  • Поетапни планове за издаване и непрекъсната оценка.    Ангажирани сме да учим и подобряваме непрекъснато нашия подход към отговорен ИИ с развитието на нашите технологии и поведението на потребителите. Нашата стратегия за постъпково издание е основна част от начина, по който преместваме нашата технология безопасно от лабораторията в света, и сме ангажирани с преднамерени, грижливо процес, за да се защитят ползите от опита на Copilot. Ние правим промени в Copilot редовно, за да подобрим производителността на продукта и съществуващите смекчавания и да прилагаме нови смекчавания в отговор на нашите обучения.

  • Използване на класификаторите и системното съобщение за намаляване на потенциалните рискове или неправилно използване.    В отговор на подканите от потребителя, LLM може да създадат проблемно съдържание. Обсъдихме типовете съдържание, които се опитваме да ограничим в разделите "Поведение и ограничения на системата" по-горе. Класификаторите и системното съобщение са два примера за смекчавания, които са внедрени в Copilot, за да се намали рискът от тези типове съдържание. Класификаторите класифицират текст, за да маркират с флаг потенциално опасно съдържание в подкани от потребителя или генерирани отговори. Също така използваме съществуващите най-добри практики за използване на системното съобщение, което включва даване на инструкции на модела, за да приведем поведението му в съответствие с принципите на ИИ на Microsoft и с очакванията на потребителите.

  • Съгласие за качване на изображения на Copilot.    Първия път, когато потребител качи изображение, съдържащо лица в Copilot, той ще бъде помолен да предостави своето съгласие биометричните данни да бъдат качени в Copilot. Ако даден потребител не се включи, изображението няма да бъде изпратено до Copilot. Всички изображения, независимо дали съдържат лица, или не, се изтриват в рамките на 30 дни след края на разговора.

  • Изнасяне на информация за ИИ.    Копилотът също така е предназначен да информира хората, че взаимодействат със система от ИИ. Докато потребителите си взаимодействат с Copilot, ние предлагаме различни точки на докосване, предназначени да им помогнат да разберат възможностите на системата, да им разкриват, че Copilot се поддържа от ИИ и да съобщава ограничения. Средата за работа е създадена по този начин, за да помогне на потребителите да се възползват максимално от Copilot и да минимизират риска от претоварване. Разкриването също помага на потребителите да разберат по-добре Copilot и техните взаимодействия с него.

  • Медиен произход.    Когато Copilot генерира изображение, ние сме разрешили функция "Идентификационни данни за съдържание", която използва криптографски методи за обозначаване на източника или "произход" на всички генерирани от ИИ изображения, създадени с помощта на Copilot. Тази технология използва стандартите, определени от Коалицията за съдържание и автентичност (C2PA), за да се добави допълнителен слой на доверие и прозрачност за генерирани от ИИ изображения.

  • Автоматично откриване на съдържание.    Когато потребителите качват изображения като част от тяхната подкана за чат, Copilot разполага инструменти за откриване на сексуална експлоатация на деца и изображения за злоупотреба (CSEAI). Microsoft съобщава всички явни CSEAI на Националния център за изчезнали и експлоатирани деца (NCMEC), както се изисква от законодателството на САЩ. Когато потребителите качват файлове за анализиране или обработка, Copilot разполага автоматизирано сканиране за откриване на съдържание, което може да доведе до рискове или злоупотреба, като например текст, който може да се отнася до незаконни дейности или злонамерен код.

  • Условия на използване и Кодекс на поведение.    Потребителите трябва да спазват приложимите Условия на използване и Споразумението за кодекс на поведение наMicrosoft, както и Декларацията за поверителност на Microsoft, която, наред с другото, ги информира за допустимото и недопустимо използване и последиците от нарушаването на условията. Условията на използване предоставят и допълнителни оповестявания за потребителите и служи като справка за потребителите, за да научат повече за Copilot. Потребителите, които извършват сериозни или повтарящи се нарушения, може да бъдат временно или окончателно преустановени от услугата.

  • Обратна връзка, наблюдение и надзор.    Средата за работа с Copilot се основава на съществуващи инструменти, които позволяват на потребителите да подават обратна връзка, която се преглежда от оперативните екипи на Microsoft. Освен това нашият подход към картографирането, измерването и управлението на рисковете ще продължи да се развива, когато научим повече, и вече правим подобрения въз основа на обратната връзка, събрана през периодите на предварителен преглед.

  • Откриване и отговаряне на самоубийства и Self-Harm рискове.    Копилот използва класификатори за машинно обучение, обучени да разпознават езикови модели, които могат да показват самоубийство или самонараняване от потребителя. Когато бъде открито такова съдържание, системата се изключва от разговора и вместо това предоставя помощна карта с ресурси за подкрепа при кризи (например самоубийството и линията на кризата през 988 г. в САЩ), насърчавайки потребителите да търсят професионална помощ. Копилотът не предоставя консултации; ролята му е ограничена до откриване и препращане, за да се гарантира безопасността на потребителите.

Научете повече за отговорния ИИ

Отчет за прозрачност на отговорния AI на Microsoft

Принципи на Microsoft AI

Ресурси за отговорен AI на Microsoft

Курсове на Microsoft Azure Learning за отговорен ИИ

Научете повече за Microsoft Copilot

Microsoft Copilot често задавани въпроси

За този документ

© 2024 Microsoft Corporation. Всички права запазени. Този документ се предоставя "както е" и само с информационна цел. Информацията и изгледите, изразени в този документ, включително URL адресите и други препратки към уеб сайтове в интернет, може да се променят без предизвестие. Вие поемате риска да го използвате. Някои примери са само за илюстрация и са измислени. Никое истинско сдружение не е предназначено или подразбирано.

Настоящият документ не е предназначен за предоставяне на правни съвети и не следва да се счита за предоставян. Юрисдикцията, в която работите, може да има различни регулаторни или правни изисквания, които се отнасят за вашата AI система. Консултирайте се със специалист по правни въпроси, ако не сте сигурни относно законите или разпоредбите, които може да се отнасят за вашата система, особено ако смятате, че те могат да повлияят на тези препоръки. Имайте предвид, че не всички от тези препоръки и ресурси ще бъдат подходящи за всеки сценарий, и обратно, тези препоръки и ресурси може да са недостатъчни за някои сценарии.

Публикувано: 10.01.2024 г.

Последна актуализация: 10.01.2024 г.

Нуждаете ли се от още помощ?

Искате ли още опции?

Разгледайте ползите от абонамента, прегледайте курсовете за обучение, научете как да защитите устройството си и още.