Преминаване към основното съдържание
Поддръжка
Влизане с Microsoft
Влезте или създайте акаунт.
Здравейте,
Изберете друг акаунт.
Имате няколко акаунта
Изберете акаунта, с който искате да влезете.

Последна актуализация: февруари 2024 г.

Основите на Копилот в Bing   

Въведение  

През февруари 2023 г. Microsoft стартира новия Bing – подобрено от ИИ търсене в интернет. Тя поддържа потребителите чрез обобщаване на резултатите от търсенето в интернет и предоставяне на чат среда. Потребителите могат също така да генерират творческо съдържание, като например стихотворения, шеги, истории и изображения с Инструмент за създаване на изображения на Bing. Новият AI-подобрен Bing се изпълнява на редица съвременни технологии от Microsoft и OpenAI, включително GPT-4, авангарден голям езиков модел (LLM) и DALL-E , дълбоко учебен модел за генериране на цифрови изображения от описания на естествен език, както от OpenAI. Работихме с двата модела в продължение на месеци преди публичното издание, за да разработим персонализиран набор от възможности и техники за присъединяване към тази авангардна AI технология и търсене в интернет в новия Bing.  През ноември 2023 г. Microsoft преименува новия Bing на Copilot в Bing.

В Microsoft приемаме нашия ангажимент към отговорен ИИ сериозно. Средата за работа на Copilot в Bing е разработена в съответствие с принципите на ИИ на Microsoft, microsoft's Responsible AI Standard и в партньорство с отговорни ИИ експерти във фирмата, включително Office на отговорен AI на Microsoft, нашите инженерни екипи, Microsoft Research и Aether. Можете да научите повече за отговорния ИИ в Microsoft тук.  

В този документ описваме нашия подход към отговорния ИИ за Копилот в Bing. Преди издаването приехме най-съвременни методи за идентифициране, измерване и намаляване на потенциалните рискове и злоупотреба със системата и за осигуряване на нейните ползи за потребителите. Тъй като продължаваме да развиваме Копилот в Bing от първото издаване, ние също така продължихме да учим и подобряваме нашите отговорни усилия за ИИ. Този документ ще се актуализира периодично, за да съобщава нашите развиващи се процеси и методи.   

Ключови термини  

Copilot в Bing е подобрено за ИИ търсене в интернет. Тъй като тя работи с мощна, нова технология, започваме с дефиниране на някои ключови термини.  

Модели за машинно обучение, които помагат за сортирането на данни в обозначени класове или категории информация. В Copilot в Bing един от начините, по които използваме класификаторите, е да помогнем за откриването на потенциално опасно съдържание, подадено от потребителите или генерирано от системата, за да смекчим генерирането на това съдържание и злоупотребата с него. 

Copilot в Bing се застъпва в резултатите от търсенето в интернет, когато потребителите търсят информация. Това означава, че центрираме отговора, предоставен на заявка на потребител, или подканваме за високо класиране на съдържание от уеб и предоставяме връзки към уеб сайтове, така че потребителите да могат да научат повече. Bing класира съдържанието за търсене в интернет чрез силно тегловни функции, като например релевантност, качество и надеждност, както и актуалност. Описваме тези концепции по-подробно в Как Bing предоставя Search резултати (вижте "Качество и надеждност" в "Как Bing класира Search резултати").   

Считаме за основателни отговорите от Copilot в Bing, в които твърденията се поддържат от информацията, съдържаща се във входните източници, като например резултатите от търсенето в интернет от заявката или подканата, база знания на информация от проверката на фактите на Bing, а за чат – от скорошната хронология на разговорите от чата. Нелегалните отговори са тези, в които декларация не е заземена в тези входни източници.  

Големи езикови модели (LLM) в този контекст са модели на ИИ, които са обучени в големи количества текстови данни за прогнозиране на думи в последователност. Незабавните съобщения могат да изпълняват разнообразни задачи, като например генериране на текст, обобщаване, превод, класификация и др.  

Метапромптът е програма, която служи за насочване на поведението на системата. Части от метапромпт помагат за подравняване на поведението на системата с принципите на Microsoft AI и очакванията на потребителя. Например метапромптът може да включва ред, като например "комуникация на избрания от потребителя език".  

Метод или комбинация от методи, предназначени за намаляване на потенциалните рискове, които могат да възникнат от използването на функции, управлявани от ИИ, в Copilot в Bing.  

Текстови, гласови, изображения и/или други разрешени заявки, които потребителят изпраща до Bing като вход към модела, който дава възможност за нови, управлявани от ИИ жанративни изживявания в Bing. Например потребителят може да въведе следната подкана:  

"Планирам пътуване за годишнината ни през септември. Кои са някои от местата, на които можем да отидем, с 3-часов полет от Лондон Хийтроу?”  

Текстът, който потребителят изпраща до Bing от лентата за търсене в интернет. В този документ разграничаваме заявка (за търсене в интернет) от подкана (за базирани на ИИ жанративни изживявания в Bing). Например потребителят може да въведе следната заявка за търсене в интернет:  

"туристически дестинации близо до Летище London Heathrow"  

Техники, използвани от експерти за оценка на ограниченията и уязвимостите на дадена система, както и за проверка на ефективността на планираните смекчавания. Червеният екипен тест и стрес-тестовете се използват за идентифициране на потенциалните рискове и се различават от системното измерване на рисковете.   

Текстът, изображението, диаграмите и т.н., който Copilot в Bing извежда в отговор на подкана. Синонимите за "отговор" включват "завършване", "поколение" и "отговор". Например Bing може да предостави следния отговор на подканата, която сме използвали в дефиницията на "подкана" по-горе:   

"Поздравления за годишнината ви! Има много места, на които можете да отидете, с 3-часов полет от Лондон Хийтроу. Според един източник, някои от пътуванията през уикенда в рамките на три часа със самолет от Лондон са Билбао, Копенхаген, Рейкявик и Стокхолм 1, 2. Друг източник предлага някои от най-добрите места за отиване в Европа през септември са Краков, Флоренция и Лисабон 3, 4. Можете също да проверите директните полети от Лондон Хийтроу до различни дестинации и да видите какво ви харесва 5. Надявам се да си прекараш чудесно!”  

Предвидена употреба и нови изживявания с ИИ  

Предназначението на копилотирането в приложенията на Bing е да свързва потребителите със съответните резултати от търсенето, да преглежда резултати от интернет, за да намира и обобщава търсените отговори, да помага на потребителите да прецизират своите изследвания, за да получат отговори с чат опит, и да предизвикат творчество, като помагат на потребителите да създават съдържание. Копирното копие в изживяванията на генеративния ИИ на Bing по-долу поддържа целта да бъдеш копирно копие за уеб, поддържано от ИИ.  

Обобщаване. Когато потребителите подадат заявка за търсене в Copilot в Bing, системата Bing обработва заявката, извършва едно или повече търсения в интернет и използва най-добрите резултати от търсенето в интернет, за да генерира резюме на информацията, която да представя на потребителите. Тези резюмета включват препратки, които помагат на потребителите да виждат и да имат лесен достъп до резултатите от търсенето, използвани за подпомагане на обобщението. Резюметата могат да се показват от дясната страна на страницата с резултати от търсенето и в чата.  

Чат среда. В допълнение към обобщаването потребителите могат да разговарят с Copilot в системата Bing чрез текст, изображение или гласово въвеждане, да задават последващи въпроси с цел изясняване на търсенията и намиране на нова информация, както и да подават подкани за генериране на творческо съдържание. Препратките се включват и в чата, когато Copilot в Bing обобщава резултатите от търсенето в отговора.   

Генериране на творческо съдържание. Както в чата, така и на страницата за търсене потребителите могат да създават стихотворения, шеги, истории, изображения и друго съдържание с помощта на Copilot в Bing.  Изображенията се създават от Designer (бивш Инструмент за създаване на изображения на Bing) и потребителите имат достъп до функцията чрез Designer начална страница, както и от страницата copilot. 

Как работи Copilot в Bing?  

С Copilot в Bing разработихме иновативен подход за въвеждане на най-съвременните незабавни съобщения в уеб търсене. Когато потребителят въведе подкана в Copilot в Bing, подканата, скорошната хронология на разговорите, метапромптът и най-добрите резултати от търсенето се изпращат като входни данни в LLM. Моделът генерира отговор с помощта на подканите на потребителя и хронологията на последните разговори за контекстуализиране на искането, метапромпт за съгласуване на отговорите с принципите на Microsoft AI и очакванията на потребителя, както и резултатите от търсенето за наземни отговори в съществуващо, високо класиране на съдържание от интернет.   

Отговорите се представят на потребителите в няколко различни формата, като традиционни връзки към уеб съдържание, генерирани от ИИ обобщения, изображения и отговори в чата. Обобщенията и отговорите в чата, които разчитат на резултатите от търсенето в интернет, ще включват препратки и раздел "Научете повече" под отговорите с връзки към резултатите от търсенето, които са използвани за основа на отговора. Потребителите могат да щракнат върху тези връзки, за да научат повече за дадена тема и информацията, използвана за основа на резюмето или отговора в чата.    

В средата за работа с Copilot потребителите могат да извършват търсене в интернет разговорно, като добавят контекст към подканата си и взаимодействат със системните отговори, за да уточнят допълнително интересите си при търсене. Например потребителят може да задава последващи въпроси, да поиска допълнителна поясняваща информация или да отговаря на системата по разговорен начин. В чата потребителите също могат да изберат отговор от предварително написани предложения, които наричаме предложения за чат. Тези бутони се появяват след всеки отговор от Copilot и предоставят предложени подкани за продължаване на разговора в чата. Предложенията за чат също така се показват заедно с обобщено съдържание на страницата с резултати от търсенето като входна точка за чат среда.  

Копилотът в Bing също позволява на потребителя да създава истории, стихотворения, текстове на песни и изображения с помощта на Bing. Когато Copilot в Bing открие намерението на потребителя да генерира творческо съдържание (например подканата започва с "напишете ми ..."), системата в повечето случаи ще генерира съдържание, отговарящо на подканата на потребителя. По същия начин, когато Copilot в Bing открие намерението на потребителя да генерира изображение (например подканата започва с "начертай ми ..."), системата в повечето случаи ще генерира изображение, отговарящо на подканата на потребителя. Във visual Search в чат, с изображение, заснето от камерата на потребителя, качено от устройството на потребителя или свързано от интернет, потребителите могат да подканят Copilot в Bing да разбере контекста, да интерпретира и отговори на въпроси за изображението.  Потребителите могат също да качват файловете си в Copilot, за да интерпретират, конвертират, обработват или изчисляват информация от тях. В Microsoft Designer среда, до която потребителите имат достъп чрез Copilot в Bing, потребителите могат не само да генерират изображения с помощта на подкани, но също така да ги преоразмеряват или възстановяват или да извършват редакции, като замъгляване на фона или по-ярки цветове. 

Потребителите с акаунти в Microsoft (MSA) вече имат възможност да се абонират за Copilot Pro, които предлагат подобрена работа, включително ускорена производителност, по-бързо създаване на ИИ изображения и възможността скоро да създадат свои собствени copilot GGPTs. Copilot Pro в момента се предлага в ограничени страни и планираме скоро да предоставим Copilot Pro на повече пазари.

В средата за работа на Copilot потребителите имат достъп до Copilot GPTs. Copilot GPT, подобно Designer GPT, е персонализирана версия на Microsoft Copilot по тема, която е от особен интерес за вас, като например фитнес, пътуване и готвене, която може да ви помогне да превърнете неясни или общи идеи в по-конкретни подкани с резултати, включително текстови съобщения и изображения. В Copilot потребителите могат да виждат наличните copilot GGPTs, а потребителите с Copilot Pro акаунти скоро ще имат достъп до copilot GPT Builder – функция, която позволява на потребителите да създават и конфигурират потребителски Copilot GPT. Отговорни AI предпазни мерки, споменати по-горе за Copilot в Bing важи за Copilot GPTs.

За да научите повече за това как работят Copilot Pro и Copilot GPTs, посетете тук.

Копилотът в Bing се стреми да предоставя разнообразни и изчерпателни резултати от търсенето със своя ангажимент за свободен и отворен достъп до информация. В същото време нашите усилия за качество на продуктите включват работа, за да се избегне неволно насърчаване на потенциално опасно съдържание за потребителите. Повече информация как Bing класира съдържанието, включително как тя определя релевантността и качеството и надеждността на дадена уеб страница, е налична в "Указания за уеб администратори на Bing".   Повече информация относно принципите за модериране на съдържанието на Bing е налична в "Как Bing предоставя резултатите от търсенето".   

В средата за работа с Copilot в Windows Copilot в Bing може да работи с операционната система Windows, за да предоставя специфични за Windows умения, като например промяна на темата или фона на потребителя и промяна на настройките, като например аудио, Bluetooth и работа в мрежа. Тези изживявания позволяват на потребителя да конфигурира своите настройки и да подобри потребителското си изживяване с помощта на подкани за естествен език към LLM. Специфична за приложението функционалност може да се предоставя и от приставки на приложения на други разработчици. Те могат да автоматизират повтарящи се задачи и да постигнат по-добра ефективност на потребителите. Тъй като НЕЗАБАВНИте съобщения понякога могат да правят грешки, са предоставени подходящи подкани за потвърждение на потребителя, така че потребителят да е последната арбитър на промените, които могат да бъдат направени. 

Идентифициране, измерване и намаляване на рисковете  

Подобно на други технологии за трансформация, използването на ползите от ИИ не е без риск, а основната част от програмата за отговорен ИИ на Microsoft е предназначена да идентифицира потенциалните рискове, да измерва склонността им да възниква и да изгражда смекчавания на последствията, за да се справи с тях. Ръководени от нашите Принципи на ИИ и нашия отговорен стандарт за ИИ, се опитахме да идентифицираме, измерваме и намаляваме потенциалните рискове и злоупотреба с Copilot в Bing, като същевременно осигурихме преобразователните и полезните начини на използване, предоставяни от новия опит. В разделите по-долу описваме нашия итеративен подход за идентифициране, измерване и намаляване на потенциалните рискове.   

На ниво модел нашата работа започна с изследователски анализи на GPT-4 в края на лятото на 2022 г. Това включва провеждане на задълбочено тестване на червения екип в сътрудничество с OpenAI. Това тестване има за цел да оцени как ще работи най-новата технология без приложени допълнителни предпазни мерки. Нашата конкретна цел в момента е да създадем вредни реакции, потенциални възможности за неправилно използване и да идентифицираме възможностите и ограниченията. Нашите комбинирани обучения в OpenAI и Microsoft допринесоха за напредък в разработването на модели и за нас в Microsoft информираха разбирането ни за рисковете и допринесоха за ранни стратегии за смекчаване на последствията за Copilot в Bing.  

В допълнение към червения екипен тест на ниво модел мултидисциплинарен екип от експерти проведе множество кръгове от червени екипи за тестване на ниво приложение на Copilot в Bing AI изживявания, преди да ги направи публично достъпни в нашия ограничен предварителен преглед на изданията. Този процес ни помогна да разберем по-добре как системата може да бъде използвана от противоречиви участници и да подобрим нашите смекчавания. Освен това несвързващите стрес тестери подробно оцениха новите характеристики на Bing за недостатъците и слабите места. След издаването новите възможности за ИИ в Bing са интегрирани в съществуващата инфраструктура за измерване и тестване на производството на инженерната организация на Bing. Например червени екипни тестващи от различни региони и фонове непрекъснато и систематично се опитват да компрометират системата, а резултатите от тях се използват за разширяване на наборите от данни, които Bing използва за подобряване на системата.  

Червеният екипен тест и стрес-тестването могат да покажат случаи на специфични рискове, но в производствените потребители ще има милиони различни видове разговори с Copilot в Bing. Освен това разговорите са много завойни и контекстуални, а идентифицирането на опасното съдържание в разговора е сложна задача. За по-добро разбиране и справяне с потенциалните рискове в Copilot в Bing AI изживявания разработихме допълнителни отговорни метрики за ИИ, специфични за новите изживявания с ИИ за измерване на потенциални рискове, като джайлбрейки, опасно съдържание и нелегално съдържание. Също така разрешихме измерване по мащаб чрез частично автоматизирани канали за измерване. Всеки път, когато се актуализират промените в продукта, съществуващите смекчавания се актуализират или се предлагат нови смекчавания, ние актуализираме нашите канали за измерване, за да оценяваме както производителността на продукта, така и отговорните метрики за ИИ.  

Като илюстративен пример актуализираният частично автоматизиран канал за измерване за опасно съдържание включва две основни иновации: симулация на разговор и автоматизирана, проверена от човека анотация на разговор. Първо, отговорните експерти с ИИ създадоха шаблони, за да уловят структурата и съдържанието на разговорите, които могат да доведат до различни типове опасно съдържание. Тези шаблони след това са дадени на разговорен агент, който взаимодейства като хипотетичен потребител с Copilot в Bing, генерирайки симулирани разговори. За да установим дали тези симулирани разговори съдържат опасно съдържание, взехме насоки, които обикновено се използват от експертите лингвисти, за да етикетираме данните и ги променихме за използване чрез GPT-4 да етикетираме разговорите в мащаб, като прецизирахме насоките, докато не се установи значително съгласие между обозначените с модел разговори и разговорите, обозначени с човек. Накрая използвахме разговорите, обозначени с модел, за да изчислим отговорна метрика на ИИ, която улавя ефективността на Copilot в Bing за намаляване на вредно съдържание.   

Измервателните ни канали ни позволяват бързо да измерваме потенциалните рискове в мащаб. Тъй като идентифицираме нови проблеми през периода на предварителния преглед и продължаващите червени тестове на екипа, продължаваме да разширяваме измервателните набори, за да оценяваме допълнителни рискове.  

Тъй като установихме потенциалните рискове и злоупотреба чрез процеси като червени екипни тестове и стрес-тестове и ги измервахме с иновативните подходи, описани по-горе, разработихме допълнителни смекчавания на последствията за тези, които се използват при традиционното търсене. По-долу описваме някои от тези смекчавания. Ще продължим да наблюдаваме Copilot в Bing AI среди за подобряване на производителността и смекчаванията на последствията от продукта.  

Поетапно освобождаване, непрекъснато оценяване. Ангажирани сме да учим и подобряваме нашия отговорен подход към ИИ непрекъснато с развитието на нашите технологии и поведение на потребителите. Нашата стратегия за постъпково издание е основна част от начина, по който преместваме нашата технология безопасно от лабораториите в света, и сме ангажирани с преднамерени, грижливо процес, за да защитим ползите от Copilot в Bing. Ограничаването на броя на хората с достъп през периода на предварителния преглед ни позволи да открием как хората използват Copilot в Bing, включително как хората могат да злоупотребяват с него, така че да се опитаме да смекчим възникващите проблеми преди по-широкото издание. Например изискваме от потребителите да се удостоверят чрез своя акаунт в Microsoft, преди да получат достъп до пълната нова среда на работа на Bing. Неудостоверени потребители имат достъп само до ограничен преглед на изживяването. Тези стъпки обезсърчават злоупотребата и ни помагат (ако е необходимо) да предприемем подходящи действия в отговор на нарушения на Кодекса на поведение.  Ежедневно правим промени в Copilot в Bing, за да подобряваме производителността на продуктите, да подобряваме съществуващите смекчавания и да прилагаме нови смекчавания в отговор на нашите обучения през периода на предварителния преглед.  

Заземяване на резултатите от търсенето. Както е отбелязано по-горе, Copilot в Bing има за цел да предоставя отговори, поддържани от информацията в резултатите от търсенето в интернет, когато потребителите търсят информация. Например системата е предоставена с текст от най-добрите резултати от търсенето и инструкции чрез метапромпт, за да се основа отговорът му. Обаче при обобщаването на съдържание от уеб, Copilot в Bing може да включва информация в своя отговор, която не присъства в нейните входни източници. С други думи, то може да доведе до неоградени резултати. Нашите ранни оценки показват, че неоснователните резултати в чата може да са по-разпространени за определени видове подкани или теми от други, като например искане за математически изчисления, финансова или пазарна информация (например приходи на фирмата, данни за производителността на акциите) и информация като точни дати на събития или конкретни цени на артикули. Потребителите винаги трябва да внимават и да преценят по най-добрия начин, когато преглеждат обобщени резултати от търсенето, независимо дали на страницата с резултати от търсенето, или в чата. Предприехме няколко мерки за намаляване на риска, че потребителите могат да разчитат прекалено на нелегално генерирано съдържание в сценарии за обобщаване и изживявания в чата. Например отговорите в Copilot в Bing, които се базират на резултати от търсенето, включват препратки към уеб сайтовете източници, за да могат потребителите да проверят отговора и да научат повече. Потребителите също така получават изрично уведомление, че взаимодействат със система от ИИ и препоръчват да проверят материалите за източника на резултати в интернет, за да им помогне да използват своята преценка по най-добрия начин.  

Базирани на ИИ класификатори и метапроизвеждащи се за намаляване на потенциалните рискове или неправилно използване. Използването на LLM може да доведе до проблемно съдържание, което може да доведе до рискове или злоупотреба. Примерите могат да включват резултати, свързани със самонараняване, насилие, графично съдържание, интелектуална собственост, неточна информация, реч на омраза или текст, който може да е свързан с незаконни дейности. Класификаторите и метапромпирането са два примера за смекчавания, които са внедрени в Copilot в Bing, за да се намали рискът от тези типове съдържание. Класификаторите класифицират текст, за да маркират с флаг различни типове потенциално опасно съдържание в заявките за търсене, подканите в чата или генерираните отговори. Bing използва базирани на ИИ класификатори и филтри на съдържание, които важат за всички резултати от търсенето и подходящи функции; разработихме допълнителни бързи класификатори и филтри за съдържание, специално за да се справим с евентуалните рискове, породени от copilot във функциите на Bing. Флаговете водят до потенциални смекчавания, като например да не връщат генерирано съдържание на потребителя, да отклоняват потребителя към друга тема или да пренасочват потребителя към традиционно търсене. Метапромпът включва да давате инструкции на модела, за да ръководите поведението му, включително така, че системата да се държи в съответствие с принципите на ИИ на Microsoft и очакванията на потребителите. Например метапромптът може да включва ред, като например "комуникация на избрания от потребителя език".   

Защита на поверителността във Visual Search в Copilot в Bing. Когато потребителите качат изображение като част от тяхната подкана за чат, Copilot в Bing ще използва технология за замъгляване на лица, преди да изпрати изображението към модела на ИИ. Замъгляването на лица се използва за защита на поверителността на хората в изображението. Технологията за замъгляване на лице разчита на контекстни подсказки, за да определи къде да замъгли и ще се опита да замъгли всички лица. При замъглени лица моделът на ИИ може да сравни въведеното изображение с тези на публично достъпните изображения в интернет. В резултат на това например Копилот в Bing може да успее да идентифицира известния баскетболен играч от снимка на този играч на баскетболно игрище, като създаде цифрово представяне, което отразява джърси номера на играча, цвета на джърси, наличието на баскетболна обръч и т.н. Копирното устройство в Bing не съхранява числови представяния на хора от качени изображения и не ги споделя с трети лица. Copilot в Bing използва числови представяния на изображенията, които потребителите качват, само за да отговаря на подканите на потребителите, след което се изтриват в рамките на 30 дни след края на чата.    

Ако потребителят попита Copilot в Bing за информация относно качено изображение, отговорите в чата може да отразят въздействието на замъгляването на лицето върху способността на модела да предоставя информация за каченото изображение. Например Копилот в Bing може да описва някого като замъглено лице.    

Ограничаване на разговорния дрейф. По време на периода на предварителен преглед научихме, че много дълги чат сесии могат да доведат до отговори, които са повтарящи се, безполезни или несъответстващи на Copilot в целевия тон на Bing. За да се справим с този разговорен дрейф, ограничихме броя на завоите (замествания, които съдържат както потребителски въпрос, така и отговор от Copilot в Bing) за всяка чат сесия. Продължаваме да оценяваме допълнителни подходи за смекчаване на този проблем.  

Бързо обогатяване. В някои случаи подканата на потребителя може да е нееднозначна. Когато това се случи, Copilot в Bing може да използва LLM, за да ви помогне да съставите повече подробности в подканата, за да гарантирате, че потребителите получават отговора, който търсят. Такова своевременно обогатяване не разчита на познанията на потребителя или техните предишни търсения, а на AI модела. Тези коригирани заявки ще се виждат в хронологията на чата на потребителя и, подобно на други търсения, могат да бъдат изтрити с помощта на контролите в продукта.  

Потребителски центриран дизайн и потребителски изживяване. Дизайнът, центриран върху потребителя, и потребителските изживявания са важен аспект от подхода на Microsoft към отговорния ИИ. Целта е коренно проектиране на продукти в нуждите и очакванията на потребителите. Тъй като потребителите взаимодействат с Copilot в Bing за първи път, предлагаме различни точки на докосване, предназначени да им помогнат да разберат възможностите на системата, да им разкрият, че Copilot в Bing се поддържа от AI и да съобщава ограничения. Средата за работа е създадена по този начин, за да помогне на потребителите да се възползват максимално от Copilot в Bing и да минимизират риска от претоварване. Елементите на изживяването също помагат на потребителите да разберат по-добре Копилот в Bing и техните взаимодействия с него. Те включват предложения за чат, специфични за отговорен ИИ (например как Bing използва ИИ? Защо Copilot в Bing не отговаря на някои теми?), обяснения на ограничения, начини, по които потребителите могат да научат повече за начина, по който системата работи, и да съобщават за обратна връзка и лесно да навигирате препратки, които се появяват в отговорите, за да покажат на потребителите резултатите и страниците, в които се базират отговорите.  

Разкриване на AI. Copilot в Bing предоставя няколко точки на докосване за смислено разкриване на ИИ, при което потребителите биват уведомени, че взаимодействат със система с ИИ, както и възможности да научат повече за Copilot в Bing. Даването на повече възможности на потребителите с тези знания може да им помогне да избегнат прекаленото разчитане на ИИ и да научат за силните и ограниченията на системата.  

Медиен произход.Microsoft Designer е разрешил функцията "Идентификационни данни за съдържание", която използва криптографски методи за маркиране на източника или "произход" на всички генерирани от ИИ изображения, създадени на Designer. Функцията за невидим цифров воден знак показва източника, часа и датата на първоначалното създаване и тази информация не може да бъде променяна. Технологията използва стандартите, определени от Коалицията за съдържание и автентичност (C2PA), за да се добави допълнителен слой на доверие и прозрачност за генерирани от ИИ изображения. Microsoft е съосновател на C2PA и е допринесла с основната технология за производство на цифрово съдържание. 

Условия на използване и Кодекс на поведение. Този ресурс управлява използването на Copilot в Bing. Потребителите трябва да спазват условията на използване и кодекса на поведение, които, наред с другото, ги информират за допустимото и недопустимо използване и последиците от нарушаването на условията. Условията на използване предоставят и допълнителни оповестявания за потребителите и служи като удобна справка за потребителите, за да научат повече за Copilot в Bing.   

операции и бърза реакция. Също така използваме Copilot в текущите процеси на наблюдение и оперативни процеси на Bing, за да се справим с това кога "Копилот" в Bing получава сигнали или получава отчет, посочващ евентуалната злоупотреба или нарушения на условията на използване или кодекса на поведение.  

Обратна връзка, наблюдение и надзор. Копилотът в работата с Bing се основава на съществуващо инструментиране, което позволява на потребителите да подават обратна връзка и да докладват за притесненията си, които се преглеждат от оперативните екипи на Microsoft. Оперативните процеси на Bing също се разшириха, за да се обхванат функциите в копилот в работата на Bing, например актуализиране на страницата "Докладване на проблем ", за да се включат новите типове съдържание, генерирани от потребителите с помощта на модела.   

Нашият подход към идентифицирането, измерването и намаляването на рисковете ще продължи да се развива, докато научаваме повече, и вече правим подобрения въз основа на обратната връзка, събрана по време на периода на предварителния преглед.     

Автоматично откриване на съдържание. Когато потребителите качват изображения като част от тяхната подкана за чат, Копилот в Bing разполага инструменти за откриване на сексуална експлоатация на деца и изображения за злоупотреба (CSEAI), най-забележимата технология за съпоставяне на хешовете на PhotoDNA. Microsoft разработи PhotoDNA за откриване на дубликати на известни CSEAI. Microsoft съобщава всички явни CSEAI на Националния център за изчезнали и експлоатирани деца (NCMEC), както се изисква от законодателството на САЩ. Когато потребителите качват файлове за анализиране или обработка, Copilot разполага автоматизирано сканиране за откриване на съдържание, което може да доведе до рискове или злоупотреба, като например текст, който може да се отнася до незаконни дейности или злонамерен код.

Защита на поверителността  

Дългогодишното убеждение на Microsoft, че поверителността е основно човешко право, е информирало всеки етап от разработването и внедряването на Copilot в работата на Microsoft с Bing. Нашите ангажименти за защита на поверителността на всички потребители, включително чрез предоставяне на физическите лица на прозрачност и контрол върху техните данни и интегриране на поверителността чрез проектиране чрез минимизиране на данните и ограничаване на целта, са основополагащи за Copilot в Bing. Докато развиваме подхода си към осигуряването на копилот в генеративния ИИ на Bing, ние непрекъснато ще проучваме как най-добре да защитим поверителността. Този документ ще бъде актуализиран, докато го правим. Повече информация относно начина, по който Microsoft защитава поверителността на нашите потребители, е налична в Декларацията за поверителност на Microsoft.  

В средата за работа с Copilot в Windows уменията на Windows може, като част от функционалността си, да споделят потребителска информация с разговора в чата. Това подлежи на одобрение от потребителя и се показват подкани за потребителския интерфейс, за да се потвърди намерението на потребителя, преди информацията за потребителя да бъде споделена с чата разговор.

Microsoft продължава да разглежда нуждите на децата и младите хора като част от оценките на риска на новите жанративни функции на ИИ в Copilot в Bing. Всички детски акаунти в Microsoft, които идентифицират потребителя като потребител на възраст под 13 години или както е посочено по друг начин в местните закони, не могат да влизат за достъп до пълната нова среда на работа на Bing.   

Както е описано по-горе, за всички потребители сме приложили предпазни мерки, които смекчават потенциално опасно съдържание. В Copilot в Bing резултатите се задават като в строгия режим на безопасно търсене на Bing, който има най-високо ниво на защита на безопасността в основното търсене на Bing, като по този начин не позволява на потребителите, включително потребители на тийнейджъри, да бъдат изложени на потенциално опасно съдържание. В допълнение към информацията, която сме предоставили в този документ и в нашите ЧЗВ относно функциите за чат, повече информация относно начина, по който работи Copilot в Bing, за да се избегне отговарянето с неочаквано обидно съдържание в резултатите от търсенето, е налична тук.  

Microsoft се ангажира да не предоставя персонализирана реклама въз основа на поведението онлайн на деца, чиито рождени години в акаунта им в Microsoft ги идентифицират като деца под 18 години. Тази важна защита ще обхване рекламите в Copilot във функциите на Bing. Потребителите може да виждат контекстни реклами въз основа на заявката или подкана, използвана за взаимодействие с Bing.  

За да отключим трансформиращия потенциал на генеративния ИИ, трябва да изградим доверие в технологиите, като дадем възможност на хората да разберат как се използват техните данни и им предоставим смислен избор и контрол над данните им. Копилотът в Bing има за цел да приоритизира човешката агенция чрез предоставяне на информация за начина на работа на продукта, както и неговите ограничения, както и чрез разширяване на нашите надеждни потребителски избори и контрол към Копилот във функциите на Bing.   

Декларацията за поверителност на Microsoft предоставя информация за нашите прозрачни практики за поверителност за защита на нашите клиенти и съдържа информация за контролите, които дават на нашите потребители възможността да преглеждат и управляват личните си данни. За да се гарантира, че потребителите разполагат с необходимата информация, когато взаимодействат с новите разговорни функции на Bing, оповестяването на информация в продукта информира потребителите, че работят с продукт с ИИ, и предоставяме връзки към допълнителни ЧЗВ и обяснения относно начина на работа на тези функции. Microsoft ще продължи да слуша обратната връзка от потребителите и ще добави допълнителни подробности за разговорните функции на Bing според необходимостта, за да поддържа разбирането на начина, по който работи продуктът.   

Microsoft също така предоставя на своите потребители стабилни инструменти за упражняване на правата им върху личните им данни. За данни, които се събират от Copilot в Bing, включително чрез потребителски заявки и подкани, таблото за поверителност на Microsoft предоставя на удостоверени (влезли) потребители инструменти за упражняване на правата им на субект на данни, включително чрез предоставяне на потребителите на възможността да преглеждат, експортират и изтриват съхранена хронология на разговорите. Microsoft продължава да приема обратна връзка за това как иска да управлява новата си среда за работа с Bing, включително чрез използването на функции за управление на данни в контекст.   

Copilot в Bing също така уважава заявките в рамките на европейското право да бъдат забравени, като следва процеса, който Microsoft разработи и прецизира за традиционната функционалност на търсене на Bing. Всички потребители могат да съобщават за притеснения относно генерирано съдържание и отговори тук, а нашите европейски потребители могат да използват този формуляр , за да подават заявки за блокиране на резултати от търсене в Европа под правото да бъдат забравени.   

Copilot в Bing ще уважи избора на поверителност на потребителите, включително тези, които вече са били направени в Bing, като например съгласие за събиране и използване на данни, което е поискано чрез банери с бисквитки и контроли, налични в таблото за поверителност на Microsoft. За да помогнем за разрешаването на автономията на потребителите и свободата на избор при вземането на информирани решения, използвахме нашия вътрешен процес на преглед, за да проучим внимателно как се представят възможностите за избор на потребителите. 

В допълнение към контролите, налични чрез таблото за поверителност на Microsoft, които позволяват на потребителите да преглеждат, експортират и изтриват хронологията на търсене, включително компоненти на тяхната хронология на чата, удостоверени потребители, които са разрешили функцията за хронология на чата в продукта, имат възможност да преглеждат, осъществяват достъп до и изтеглят хронологията на чата чрез контроли в продукта. Потребителите могат да изчистят определени чатове от хронологията на чата или да изключат напълно функционалността на хронологията на чата по всяко време, като посетят страницата с настройки на Bing. Потребителите също така могат да изберат дали да позволят персонализиране на достъпа до по-персонализирана среда за работа с персонализирани отговори. Потребителите могат да се отпишат и да се отпишат от персонализирането по всяко време от настройките на чата на страницата с настройки на Bing.  Изчистването на определени чатове от хронологията на чата не позволява използването им за персонализиране.  
 
Повече информация за хронологията на чата и персонализирането се предоставя на потребителите в Copilot в ЧЗВ за Bing. 

Копилотът в Bing е изграден, като се има предвид поверителността, така че личните данни се събират и използват само при необходимост и се запазват не по-дълго от необходимото. Както беше споменато по-горе, visual Search in Copilot in Bing feature deploys a mechanism that blurs faces in the images at the upload by the upload by users, so that facial images are not further processed or stored. Повече информация относно личните данни, които Bing събира, начина, по който ги използва, и начина, по който те се съхраняват и изтриват, е налична в Декларацията за поверителност на Microsoft, която също предоставя информация за новите функции за чат на Bing.   

Копилотирането в Bing има правила за съхранение и изтриване на данни, за да се гарантира, че личните данни, събирани чрез функциите за чат на Bing, се запазват толкова дълго, колкото е необходимо.   

Ще продължим да учим и развиваме нашия подход към осигуряването на Копилот в Bing, като в резултат на това ще продължим да работим по различни дисциплини, за да приведем иновациите в ИИ с човешките ценности и основни права, включително защита на младите потребители и неприкосновеността на личния живот.   

Copilot with commercial data protection 

Копилот със защитата на търговските данни, известен преди като Bing Chat Enterprise ("BCE"), беше пуснат от Microsoft в безплатен публичен предварителен преглед през юли 2023 г. като безплатна добавка за определени клиенти на M365. Копилотирането със защитата на търговски данни е подобрено с ИИ уеб търсене за крайните корпоративни потребители. 

Както при Copilot в Bing, когато copilot с търговска защита на данните крайният потребител влезе подкана в интерфейса, подканата, незабавният разговор, най-добрите резултати от търсенето и метапромптът се изпращат като входни данни към LLM. Моделът генерира отговор с помощта на хронологията на подканите и незабавните разговори за контекстуализиране на искането, метапромпт за съгласуване на отговорите с принципите на ИИ на Microsoft и очакванията на потребителите, както и резултатите от търсенето на наземни отговори в съществуващо, високо класиране на съдържание от интернет. Това работи по същия начин като Copilot в Bing, както е описано по-горе в този документ, с изключение на това, че Copilot със защита на търговските данни разчита само на незабавна хронология на разговорите (не скорошна хронология на разговорите), тъй като съхранената хронология на чата не е поддържана в момента функция. Designer и Visual Search вече са налични в тази версия. 

Подобно на други технологии за трансформация, използването на ползите от ИИ не е без риск, а основната част от програмата за отговорен ИИ на Microsoft е предназначена да идентифицира потенциалните рискове, да измерва склонността им да възниква и да изгражда смекчавания на последствията, за да се справи с тях. И отново, гореописаното описание на усилията на Microsoft за идентифициране, измерване и намаляване на потенциалните рискове за Copilot в Bing се отнася и за тази версия, с някои разяснения относно смекчаванията, описани по-долу: 

Поетапно освобождаване, непрекъснато оценяване. Подобно на Copilot Bing, за Copilot със защитата на търговските данни също възприехме подход за постъпково издание. На 18 юли 2023 г. Copilot със защита на търговските данни стана наличен като безплатен предварителен преглед за отговарящи на условията корпоративни клиенти с конкретни акаунти за M365, които да се включат за крайните потребители на предприятието. Тридесет (30) дни след уведомяването на отговарящите на условията корпоративни клиенти, Copilot със защита на търговските данни стана "включена по подразбиране" за същите тези клиенти. Copilot със защитата на търговските данни също стана достъпно за конкретни образователни акаунти за M365 преподаватели. Copilot със защитата на търговските данни стана общодостъпна за определени корпоративни клиенти на 1 декември 2023 г. В бъдеще планираме да разширим достъпа до Copilot със защита на търговските данни за повече Microsoft Entra ID потребители.

Условия на използване и Кодекс на поведение. Крайните потребители на Copilot със защита на търговските данни трябва да спазват условията за използване на крайния потребител. Настоящите Условия на използване информират крайните потребители за допустимото и недопустимо използване и последиците от нарушаването на условията.  

операции и бърза реакция. Също така използваме Copilot в текущите процеси на наблюдение и оперативни процеси на Bing, за да се справим, когато Copilot със защитата на търговските данни получава сигнали или получава отчет, показващ евентуална злоупотреба или нарушения на условията за използване на крайния потребител

Обратна връзка, наблюдение и надзор. Съпоставката с търговската защита на данните използва същия инструмент като Copilot в Bing, за да могат потребителите да подадат обратна връзка и да докладват за притесненията, които се преглеждат от оперативните екипи на Microsoft. Копилотирането в оперативните процеси на Bing също се разшири, за да обхване функциите в рамките на Copilot с търговски изживявания, свързани със защитата на данните, например актуализиране на страницата "Доклад за опасение", за да включи новите типове съдържание, генерирано от потребителите с помощта на модела.  

За да се гарантира, че крайните потребители имат необходимата информация, когато взаимодействат с Copilot със защита на търговските данни, има продуктова документация, налична в долната част на този документ, включително често задавани въпроси и страници Научете повече. 

Подканите и отговорите, генерирани от крайните потребители в Copilot със защита на търговските данни, се обработват и съхраняват в съответствие със стандартите за обработка на корпоративни данни. Към момента копилотът с предлагането за защита на търговски данни е достъпен само за корпоративни клиенти и техните удостоверени възрастни крайни потребители, поради което не очакваме децата или младите хора да бъдат крайни потребители на Copilot със защита на търговските данни в момента. Освен това Copilot със защитата на търговските данни не предоставя поведенческа реклама за крайните потребители. Вместо това всички реклами, които се показват, са само реклами, подходящи за контекста.  

Научете повече

Този документ е част от по-широки усилия в Microsoft за прилагане на нашите принципи на ИИ. За да научите повече, вижте:

Подход на Microsoft към отговорен ИИ

Microsoft е отговорен AI Standard

Ресурси за отговорен ИИ на Microsoft  

Курсове за обучение на Microsoft Azure за отговорен AI  

За този документ  

© 2023 Microsoft. Всички права запазени. Този документ се предоставя "както е" и само с информационна цел. Информацията и изгледите, изразени в този документ, включително URL адресите и други препратки към уеб сайтове в интернет, може да се променят без предизвестие. Вие поемате риска, свързан с използването му. Някои примери са само за илюстрация и са измислени. Никое истинско сдружение не е предназначено или подразбирано.  

Нуждаете ли се от още помощ?

Искате ли още опции?

Разгледайте ползите от абонамента, прегледайте курсовете за обучение, научете как да защитите устройството си и още.

Общностите ви помагат да задавате и отговаряте на въпроси, да давате обратна връзка и да получавате информация от експерти с богати знания.

Беше ли полезна тази информация?

Доколко сте доволни от качеството на езика?
Какво е повлияло на вашия потребителски опит?
Като натиснете „Подаване“, вашата обратна връзка ще се използва за подобряване на продуктите и услугите на Microsoft. Вашият ИТ администратор ще може да събира тези данни. Декларация за поверителност.

Благодарим ви за обратната връзка!

×