Последна актуализация: май 2024 г.
Основите на Copilot в Bing
Copilot в Bing сега е Microsoft Copilot. Прочетете за нашия подход към отговорния ИИ в документацията тук: Бележка за прозрачност за Microsoft Copilot.
Въведение
През февруари 2023 г. Microsoft стартира новия Bing – подобрено от ИИ търсене в интернет. Тя поддържа потребителите чрез обобщаване на резултатите от търсенето в интернет и предоставяне на чат среда. Потребителите могат също така да генерират творческо съдържание, като например стихотворения, шеги, истории и изображения с Инструмент за създаване на изображения на Bing. Новият AI-подобрен Bing работи с най-различни съвременни технологии от Microsoft и OpenAI, включително GPT, авангарден голям езиков модел (LLM) и DALL-E , дълбоко учебен модел за генериране на цифрови изображения от описания на естествен език, както от OpenAI. Работихме с двата модела в продължение на месеци преди публичното издание, за да разработим персонализиран набор от възможности и техники за присъединяване към тази авангардна технология с ИИ и търсене в уеб в новия Bing. През ноември 2023 г. Microsoft преименува новия Bing на Copilot в Bing.
В Microsoft приемаме нашия ангажимент към отговорен ИИ сериозно. Средата за Copilot в Bing е разработена в съответствие с Принципите на ИИ на Microsoft, microsoft's Responsible AI Standard и в партньорство с отговорни експерти с ИИ във фирмата, включително Office на отговорен AI на Microsoft, нашите инженерни екипи, Microsoft Research и Aether. Можете да научите повече за отговорния ИИ в Microsoft тук.
В този документ описваме подхода си към отговорния ИИ за Copilot в Bing. Преди издаването приехме най-съвременни методи за идентифициране, измерване и намаляване на потенциалните рискове и злоупотреба със системата и за осигуряване на нейните ползи за потребителите. Тъй като продължихме да развиваме Copilot в Bing от първоначалното издаване, ние също продължихме да учим и подобряваме нашите отговорни усилия за ИИ. Този документ ще се актуализира периодично, за да съобщава нашите развиващи се процеси и методи.
Ключови термини
Copilot в Bing е подобрено за ИИ търсене в интернет. Тъй като тя работи с мощна, нова технология, започваме с дефиниране на някои ключови термини.
Модели за машинно обучение, които помагат за сортирането на данни в обозначени класове или категории информация. В Copilot в Bing един от начините, по които използваме класификаторите, е да помогнем за откриването на потенциално опасно съдържание, подадено от потребителите или генерирано от системата, за да смекчим генерирането на това съдържание и злоупотребата с него или злоупотребата със системата.
Copilot в Bing се основават на резултатите от търсенето в интернет, когато потребителите търсят информация. Това означава, че центрираме отговора, предоставен на заявка на потребител, или подканваме за високо класиране на съдържание от уеб и предоставяме връзки към уеб сайтове, така че потребителите да могат да научат повече. Bing класира съдържанието за търсене в интернет чрез силно тегловни функции, като например релевантност, качество и надеждност, както и актуалност. Описваме тези концепции по-подробно в Как Bing предоставя резултатите от търсенето (вижте "Качество и надеждност" в "Как Bing класира резултатите от търсенето").
Считаме, че основателните отговори са отговори от Copilot в Bing, в които твърденията се поддържат от информацията, съдържаща се във входните източници, като например резултатите от търсенето в интернет от заявката или подканата, база знания на информация от проверката на фактите на Bing, а за чат – от скорошната хронология на разговорите от чата. Нелегалните отговори са тези, в които декларация не е заземена в тези входни източници.
Големи езикови модели (LLM) в този контекст са модели на ИИ, които са обучени в големи количества текстови данни за прогнозиране на думи в последователност. Незабавните съобщения могат да изпълняват разнообразни задачи, като например генериране на текст, обобщаване, превод, класификация и др.
Метапромптът е програма, която служи за насочване на поведението на системата. Части от метапромпт помагат за подравняване на поведението на системата с принципите на Microsoft AI и очакванията на потребителя. Например метапромптът може да включва ред, като например "комуникация на избрания от потребителя език".
Метод или комбинация от методи, предназначени да намалят потенциалните рискове, които могат да възникнат от използването на функции, управлявани от ИИ, в Copilot в Bing.
Текстови, гласови, изображения и/или други разрешени заявки, които потребителят изпраща до Bing като вход към модела, който дава възможност за нови, управлявани от ИИ жанративни изживявания в Bing. Например потребителят може да въведе следната подкана:
"Планирам пътуване за годишнината ни през септември. Кои са някои от местата, на които можем да отидем, с 3-часов полет от Лондон Хийтроу?”
Текстът, който потребителят изпраща до Bing от лентата за търсене в интернет. В този документ разграничаваме заявка (за търсене в интернет) от подкана (за базирани на ИИ жанративни изживявания в Bing). Например потребителят може да въведе следната заявка за търсене в интернет:
"туристически дестинации близо до Летище London Heathrow"
Техники, използвани от експерти за оценка на ограниченията и уязвимостите на дадена система, както и за проверка на ефективността на планираните смекчавания. Червеният екипен тест и стрес-тестовете се използват за идентифициране на потенциалните рискове и се различават от системното измерване на рисковете.
Текстът, изображението, диаграмите и т.н., който Copilot в Bing извежда в отговор на подкана. Синонимите за "отговор" включват "завършване", "поколение" и "отговор". Например Bing може да предостави следния отговор на подканата, която сме използвали в дефиницията на "подкана" по-горе:
"Поздравления за годишнината ви! Има много места, на които можете да отидете, с 3-часов полет от Лондон Хийтроу. Според един източник, някои от пътуванията през уикенда в рамките на три часа със самолет от Лондон са Билбао, Копенхаген, Рейкявик и Стокхолм 1, 2. Друг източник предлага някои от най-добрите места за отиване в Европа през септември са Краков, Флоренция и Лисабон 3, 4. Можете също да проверите директните полети от Лондон Хийтроу до различни дестинации и да видите какво ви харесва 5. Надявам се да си прекараш чудесно!”
Предвидена употреба и нови изживявания с ИИ
предназначението на Copilot в Bing е да свързва потребителите със съответните резултати от търсенето, да преглежда резултати от интернет, да намира и обобщава търсените отговори, да помага на потребителите да прецизират своите изследвания, за да получат отговори с чат среда, и да предизвикат творчество, като помагат на потребителите да създават съдържание. изживяванията на генеративния ИИ на Copilot в Bing по-долу поддържат целта да бъдат копилот за уеб, поддържан от ИИ.
Обобщаване. Когато потребителите подадат заявка за търсене в Copilot в Bing, системата Bing обработва заявката, извършва едно или повече търсения в интернет и използва най-добрите резултати от търсенето в интернет, за да генерира резюме на информацията, която да представи на потребителите. Тези резюмета включват препратки, които помагат на потребителите да виждат и да имат лесен достъп до резултатите от търсенето, използвани за подпомагане на обобщението. Резюметата могат да се показват от дясната страна на страницата с резултати от търсенето и в чата.
Чат среда. В допълнение към обобщаването потребителите могат да разговарят с Copilot в Bing система чрез текст, изображение или гласово въвеждане, да задават последващи въпроси с цел изясняване на търсенията и намиране на нова информация, както и да подават подкани за генериране на творческо съдържание. Препратките се включват и в чата, когато Copilot в Bing обобщава резултатите от търсенето в отговора.
Генериране на творческо съдържание. Както в чата, така и на страницата за търсене потребителите могат да създават стихотворения, шеги, истории, изображения и друго съдържание с помощта на Copilot в Bing. Изображенията се създават от Designer (бивш Инструмент за създаване на изображения на Bing) и потребителите имат достъп до функцията чрез Designer начална страница, както и от страницата copilot.
Как работи Copilot в Bing?
С Copilot в Bing разработихме иновативен подход за въвеждане на най-съвременните незабавни съобщения в уеб търсене. Когато потребителят въведе подкана в Copilot в Bing, подканата, хронологията на последните разговори, метапромптът и най-добрите резултати от търсенето се изпращат като входни данни в LLM. Моделът генерира отговор с помощта на подканите на потребителя и хронологията на последните разговори за контекстуализиране на искането, метапромпт за съгласуване на отговорите с принципите на Microsoft AI и очакванията на потребителя, както и резултатите от търсенето за наземни отговори в съществуващо, високо класиране на съдържание от интернет.
Отговорите се представят на потребителите в няколко различни формата, като традиционни връзки към уеб съдържание, генерирани от ИИ обобщения, изображения и отговори в чата. Обобщенията и отговорите в чата, които разчитат на резултатите от търсенето в интернет, ще включват препратки и раздел "Научете повече" под отговорите с връзки към резултатите от търсенето, които са използвани за основа на отговора. Потребителите могат да щракнат върху тези връзки, за да научат повече за дадена тема и информацията, използвана за основа на резюмето или отговора в чата.
В средата за работа с Copilot потребителите могат да извършват търсене в интернет разговорно, като добавят контекст към подканата си и взаимодействат със системните отговори, за да уточнят допълнително интересите си при търсене. Например потребителят може да задава последващи въпроси, да поиска допълнителна поясняваща информация или да отговаря на системата по разговорен начин. В чата потребителите също могат да изберат отговор от предварително написани предложения, които наричаме предложения за чат. Тези бутони се появяват след всеки отговор от Copilot и предоставят предложени подкани за продължаване на разговора в чата. Предложенията за чат също така се показват заедно с обобщено съдържание на страницата с резултати от търсенето като входна точка за чат среда.
Copilot в Bing позволява на потребителя да създава истории, стихотворения, текстове на песни и изображения с помощта на Bing. Когато Copilot в Bing открие намерението на потребителя да генерира творческо съдържание (например подканата започва с "напишете ми ..."), системата в повечето случаи ще генерира съдържание, отговарящо на подканата на потребителя. По същия начин, когато Copilot в Bing открие намерението на потребителя да генерира изображение (например подканата започва с "начертай ми ..."), системата в повечето случаи ще генерира изображение, което отговаря на подканата на потребителя. В режим на визуално търсене в чата, с изображение, заснето от камерата на потребителя, качено от устройството на потребителя или свързано от интернет, потребителите могат да подканят Copilot в Bing да разберат контекста, да интерпретират и отговорят на въпроси за изображението. Потребителите могат също да качват файловете си в Copilot, за да интерпретират, конвертират, обработват или изчисляват информация от тях. В Microsoft Designer среда, до която потребителите имат достъп чрез Copilot в Bing, потребителите могат не само да генерират изображения с помощта на подкани, но също така да ги преоразмеряват или възстановяват или да извършват редакции, като замъгляване на фона или по-ярки цветове.
Потребителите с акаунти в Microsoft (MSA) вече имат възможност да се абонират за Copilot Pro, които предлагат подобрена среда за работа, включително ускорена производителност и по-бързо създаване на ИИ изображения. Copilot Pro в момента се предлага в ограничени страни и планираме скоро да предоставим Copilot Pro на повече пазари.
За да научите повече за Copilot Pro, посетете тук.
Copilot в Bing се стреми да предоставя разнообразни и изчерпателни резултати от търсенето със своя ангажимент за свободен и отворен достъп до информация. В същото време нашите усилия за качество на продуктите включват работа, за да се избегне неволно насърчаване на потенциално опасно съдържание за потребителите. Повече информация как Bing класира съдържанието, включително как тя определя релевантността и качеството и надеждността на дадена уеб страница, е налична в "Указания за уеб администратори на Bing". Повече информация относно принципите за модериране на съдържанието на Bing е налична в "Как Bing предоставя резултатите от търсенето".
В Copilot в Windows Copilot в Bing може да работи с операционната система Windows, за да предоставя специфични за Windows умения, като например промяна на темата или фона на потребителя и промяна на настройките, като например аудио, Bluetooth и работа в мрежа. Тези изживявания позволяват на потребителя да конфигурира своите настройки и да подобри потребителското си изживяване с помощта на подкани за естествен език към LLM. Специфична за приложението функционалност може да се предоставя и от приставки на приложения на други разработчици. Те могат да автоматизират повтарящи се задачи и да постигнат по-добра ефективност на потребителите. Тъй като НЕЗАБАВНИте съобщения понякога могат да правят грешки, са предоставени подходящи подкани за потвърждение на потребителя, така че потребителят да е последната арбитър на промените, които могат да бъдат направени.
Идентифициране, измерване и намаляване на рисковете
Подобно на други технологии за трансформация, използването на ползите от ИИ не е без риск, а основната част от програмата за отговорен ИИ на Microsoft е предназначена да идентифицира потенциалните рискове, да измерва склонността им да възниква и да изгражда смекчавания на последствията, за да се справи с тях. Ръководени от нашите Принципи на ИИ и нашия отговорен стандарт за ИИ, ние се опитахме да идентифицираме, измерваме и смекчаваме потенциалните рискове и злоупотребата с Copilot в Bing като същевременно осигурим преобразователните и полезните употреби, предоставяни от новия опит. В разделите по-долу описваме нашия итеративен подход за идентифициране, измерване и намаляване на потенциалните рискове.
На ниво модел нашата работа започна с изследователски анализи на GPT-4 в края на лятото на 2022 г. Това включваше провеждане на задълбочено тестване от т.н. „червен екип“ от експерти в сътрудничество с OpenAI. Това тестване имаше за цел да оцени как ще работи най-новата технология без приложени каквито и да било допълнителни предпазни мерки. Нашата конкретна цел в момента е да пресъздадем вредни реакции, потенциални възможности за неправилно използване и да идентифицираме възможностите и ограниченията. Нашите комбинирани обучения в OpenAI и Microsoft допринесоха за напредък в разработването на модели и за нас в Microsoft информираха разбирането ни за рисковете и допринесоха за ранни стратегии за смекчаване на последствията за Copilot в Bing.
В допълнение към червения екип за тестване на ниво модел мултидисциплинарен екип от експерти проведе редица тестове на червения екип на ниво приложение на Copilot в Bing опит с ИИ, преди да ги направи публично достъпни в нашия ограничен предварителен преглед на изданията. Този процес ни помогна да разберем по-добре как системата може да бъде използвана от противопоставящи се участници и да подобрим нашите смекчавания на последствията. Освен това сътрудничещите тестващи на състоянията на стрес задълбочено оцениха новите функции на Bing за недостатъци и слаби места. След издаването новите възможности за ИИ в Bing са интегрирани в съществуващата инфраструктура за измерване и тестване на производството на инженерната организация на Bing. Например тестващи от „червения екип“ от различни региони и с различен произход непрекъснато и систематично се опитват да компрометират системата, а получаваните от тях резултати от тях се използват за разширяване на наборите от данни, които Bing използва за подобряване на системата.
Червеният екипен тест и стрес-тестването могат да покажат случаи на специфични рискове, но в производствените потребители ще има милиони различни видове разговори с Copilot в Bing. Освен това разговорите са много завойни и контекстуални, а идентифицирането на опасното съдържание в разговора е сложна задача. За по-добро разбиране и справяне с потенциала за рискове в Copilot в Bing изживявания с ИИ разработихме допълнителни отговорни метрики за ИИ, специфични за тези нови изживявания с ИИ, за измерване на потенциални рискове, като джайлбрейки, вредно съдържание и нелегално съдържание. Също така разрешихме измерване по мащаб чрез частично автоматизирани канали за измерване. Всеки път, когато продуктът се променя, съществуващите смекчавания се актуализират или се предлагат нови смекчавания, а ние актуализираме нашите канали за измерване, за да оценяваме както производителността на продукта, така и метриките за отговорен ИИ.
Като илюстративен пример актуализираният частично автоматизиран канал за измерване за опасно съдържание включва две основни иновации: симулация на разговор и автоматизирана, проверена от човека анотация на разговор. Първо, отговорните експерти с ИИ създадоха шаблони, за да уловят структурата и съдържанието на разговорите, които могат да доведат до различни типове опасно съдържание. Тези шаблони след това са дадени на агент в разговора, който взаимодейства като хипотетичен потребител с Copilot в Bing, генерирайки симулирани разговори. За да установим дали тези симулирани разговори съдържат опасно съдържание, взехме насоки, които обикновено се използват от експертите лингвисти, за да етикетираме данните и ги променихме за използване чрез GPT-4 да етикетираме разговорите в мащаб, като прецизирахме насоките, докато не се установи значително съгласие между обозначените с модел разговори и разговорите, обозначени с човек. И накрая, използвахме обозначените с модел разговори, за да изчислим отговорна метрика на ИИ, която улавя ефективността на Copilot в Bing за намаляване на вредно съдържание.
Нашите канали за измерване ни позволяват бързо да извършваме измерване за потенциални рискове в мащаб. Тъй като идентифицираме нови проблеми през периода на предварителния преглед и текущите тестове от“червения екип“, продължаваме да разширяваме измервателните набори, за да оценяваме допълнителни рискове.
След като установихме потенциалните рискове и злоупотреби чрез процеси като тестове от“червения екип“ и стрес-тестове, и ги измервахме с иновативните подходи, описани по-горе, разработихме допълнителни смекчавания на последствията за тези, които се използват при традиционното търсене. По-долу описваме някои от тези смекчавания. Ще продължим да наблюдаваме Copilot в Bing изживявания, свързани с ИИ, за да подобрим производителността и смекчаванията на последствията за продукта.
Поетапно освобождаване, непрекъснато оценяване. Ангажирани сме да учим и подобряваме непрекъснато нашия подход към отговорен ИИ с развитието на нашите технологии и поведението на потребителите. Нашата стратегия за постъпково издание е основна част от начина, по който преместваме нашата технология безопасно от лабораториите в света, и сме ангажирани с преднамерени, обмислен процес, за да защитим предимствата на Copilot в Bing. Ограничаването на броя на хората с достъп през периода на предварителния преглед ни позволи да разберем как хората използват Copilot в Bing, включително как хората могат да го използват погрешно, така че да се опитаме да смекчим възникващите проблеми преди по-широкото издаване. Например изискваме от потребителите да се удостоверят чрез своя акаунт в Microsoft, преди да получат достъп до пълната нова среда на работа на Bing. Неудостоверени потребители имат достъп само до ограничен преглед на изживяването. Тези стъпки обезсърчават злоупотребата и ни помагат (ако е необходимо) да предприемем подходящи действия в отговор на нарушения на Кодекса на поведение. Извършваме промени в Copilot в Bing ежедневно, за да подобряваме производителността на продуктите, да подобряваме съществуващите смекчавания на последствията и да прилагаме нови смекчавания в отговор на нашите обучения през периода на предварителния преглед.
Заземяване на резултатите от търсенето. Както е отбелязано по-горе, Copilot в Bing е предназначена да предоставя отговори, поддържани от информацията в резултатите от търсенето в интернет, когато потребителите търсят информация. Например системата е предоставена с текст от най-добрите резултати от търсенето и инструкции чрез метапромпт, за да се основа отговорът му. При обобщаването на съдържание от интернет обаче Copilot в Bing може да включва информация в отговора си, която не присъства в нейните входни източници. С други думи, то може да доведе до неоградени резултати. Нашите ранни оценки показват, че неоснователните резултати в чата може да са по-разпространени за определени видове подкани или теми от други, като например искане за математически изчисления, финансова или пазарна информация (например приходи на фирмата, данни за производителността на акциите) и информация като точни дати на събития или конкретни цени на артикули. Потребителите винаги трябва да внимават и да преценят по най-добрия начин, когато преглеждат обобщени резултати от търсенето, независимо дали на страницата с резултати от търсенето, или в чата. Предприехме няколко мерки за намаляване на риска, че потребителите могат да разчитат прекалено на нелегално генерирано съдържание в сценарии за обобщаване и изживявания в чата. Например отговорите в Copilot в Bing, които се базират на резултати от търсенето, включват препратки към уеб сайтовете източници, за да могат потребителите да проверят отговора и да научат повече. Потребителите също така получават изрично уведомление, че взаимодействат със система с ИИ и им се препоръчва да проверяват материалите за източника на резултати в уеб, за да им се помогне да използват своята преценка по най-добрия начин.
Базирани на ИИ класификатори и мета подкани за намаляване на потенциалните рискове или неправилното използване. Използването на LLM може да доведе до проблемно съдържание, което може да доведе до рискове или неправилно използване. Примерите могат да включват резултати, свързани със самонараняване, насилие, обидно или неприлично съдържание, интелектуална собственост, неточна информация, реч на омраза или текст, който може да е свързан с незаконни дейности. Класификаторите и мета подканите са два примера за смекчавания, които са внедрени в Copilot в Bing за намаляване на риска от тези видове съдържание. Класификаторите класифицират текст, за да маркират с флаг различни видове потенциално опасно съдържание в заявките за търсене, подканите в чата или генерираните отговори. Bing използва базирани на ИИ класификатори и филтри на съдържание, които важат за всички резултати от търсенето и подходящи функции; разработихме допълнителни бързи класификатори и филтри за съдържание, специално за да се справим с възможните рискове, породени от функциите на Copilot в Bing. Флаговете водят до потенциални смекчавания, като например да не връщат генерирано съдържание на потребителя, да отклоняват потребителя към друга тема или да пренасочват потребителя към традиционно търсене. Използването на мета подкани включва да даване на инструкции на модела, за да се ръководи поведението му, включително по такъв начин, че системата да се държи в съответствие с принципите на ИИ на Microsoft и очакванията на потребителите. Например метапромптът може да включва ред, като например "комуникация на избрания от потребителя език".
Защита на поверителността във визуалното търсене в Copilot в Bing. Когато потребителите качат изображение като част от тяхната подкана за чат, Copilot в Bing използва технология за замъгляване на лица, преди да изпрати изображението към AI модела. Замъгляването на лица се използва за защита на поверителността на хората в изображението. Технологията за замъгляване на лице разчита на контекстни подсказки, за да определи къде да замъгли и ще се опита да замъгли всички лица. При замъглени лица моделът на ИИ може да сравни въведеното изображение с тези на публично достъпните изображения в интернет. В резултат на това например Copilot в Bing може да успее да идентифицира известен баскетболен играч от снимка на този играч на баскетболно игрище, като създаде цифрово представяне, което отразява джърси номера на играча, цвета на джърси, наличието на баскетболна обръч и т.н. Copilot в Bing не съхранява числови представяния на хора от качени изображения и не ги споделя с трети лица. Copilot в Bing използва числови представяния на изображенията, които потребителите качват, само с цел да отговаря на подканите на потребителите, след което се изтриват в рамките на 30 дни след края на чата.
Ако потребителят поиска Copilot в Bing информация за каченото изображение, отговорите в чата може да отразят въздействието на замъгляването на лицето върху способността на модела да предоставя информация за каченото изображение. Например Copilot в Bing може да описва някого като замъглено лице.
Ограничаване на разговорния дрейф. По време на периода на предварителен преглед научихме, че много дълги чат сесии могат да доведат до отговори, които са повтарящи се, безполезни или несъответстващи на желания тон на Copilot в Bing. За да се справим с този разговорен дрейф, ограничихме броя завои (размяна, които съдържат както потребителски въпрос, така и отговор от Copilot в Bing) за всяка чат сесия. Продължаваме да оценяваме допълнителни подходи за смекчаване на този проблем.
Бързо обогатяване. В някои случаи подканата на потребителя може да е нееднозначна. Когато това се случи, Copilot в Bing може да използва LLM, за да ви помогне да съставите повече подробности в подканата, за да гарантирате, че потребителите получават отговора, който търсят. Такова своевременно обогатяване не разчита на познанията на потребителя или техните предишни търсения, а на AI модела. Тези коригирани заявки ще се виждат в хронологията на чата на потребителя и, подобно на други търсения, могат да бъдат изтрити с помощта на контролите в продукта.
Потребителски центриран дизайн и потребителски изживяване. Дизайнът, центриран върху потребителя, и потребителските изживявания са важен аспект от подхода на Microsoft към отговорния ИИ. Целта е коренно проектиране на продукти в нуждите и очакванията на потребителите. Тъй като потребителите взаимодействат с Copilot в Bing за първи път, ние предлагаме различни сензорни точки, предназначени да им помогнат да разберат възможностите на системата, да им разкриете, че Copilot в Bing се поддържа от ИИ, както и ограничения на комуникацията. Средата за работа е създадена по този начин, за да помогне на потребителите да се възползват максимално от Copilot в Bing и да минимизират риска от претоварване. Елементите на изживяването също помагат на потребителите да разберат по-добре Copilot в Bing и техните взаимодействия с него. Те включват предложения за чат, специфични за отговорен ИИ (например как Bing използва ИИ? Защо не Copilot в Bing отговори по някои теми?), обяснения на ограничения, начини, по които потребителите могат да научат повече за начина, по който системата работи, и да съобщават за обратна връзка и лесно да навигирате препратки, които се появяват в отговорите, за да покажат на потребителите резултатите и страниците, в които са основани отговорите.
Разкриване на AI. Copilot в Bing предоставя няколко сензорни точки за смислено разкриване на ИИ, при което потребителите биват уведомявани, че взаимодействат със система с ИИ, както и възможности да научат повече за Copilot в Bing. Даването на повече възможности на потребителите с тези познания може да им помогне да избегнат прекаленото разчитане на ИИ и да научат за силните страни и за ограниченията на системата.
Медиен произход.Microsoft Designer е разрешил функцията "Идентификационни данни за съдържание", която използва криптографски методи за маркиране на източника или "произход" на всички генерирани от ИИ изображения, създадени на Designer. Функцията за невидим цифров воден знак показва източника, часа и датата на първоначалното създаване и тази информация не може да бъде променяна. Технологията използва стандартите, определени от Коалицията за съдържание и автентичност (C2PA), за да се добави допълнителен слой на доверие и прозрачност за генерирани от ИИ изображения. Microsoft е съосновател на C2PA и е допринесла с основната технология за производство на цифрово съдържание.
Условия на използване и Кодекс на поведение. Този ресурс управлява използването на Copilot в Bing. Потребителите трябва да спазват условията на използване и кодекса на поведение, които, наред с другото, ги информират за допустимото и недопустимо използване и последиците от нарушаването на условията. Условията на използване предоставят и допълнителни оповестявания за потребителите и служи като удобна справка за потребителите, за да научат повече за Copilot в Bing.
Операции и бърза реакция. Също така използваме текущите процеси на наблюдение и оперативни процеси на Copilot в Bing, за да обърнем внимание кога Copilot в Bing получава сигнали или получава отчет, посочвайки евентуалната злоупотреба или нарушения на Условията на използване или Кодекса на поведение.
Обратна връзка, наблюдение и надзор. Copilot в Bing среда за работа се основава на съществуващи инструменти, които позволяват на потребителите да подават обратна връзка и да докладват за притесненията, които се преглеждат от оперативните екипи на Microsoft. Оперативните процеси на Bing също се разшириха, за да се обхванат функциите в Copilot в Bing среда за работа, например актуализиране на страницата "Отчет за проблем", за да се включат новите типове съдържание, генерирано от потребителите с помощта на модела.
Нашият подход към идентифицирането, измерването и намаляването на рисковете ще продължи да се развива, докато научаваме повече, и вече правим подобрения въз основа на обратната връзка, събрана по време на периода на предварителния преглед.
Автоматично откриване на съдържание. Когато потребителите качват изображения като част от тяхната подкана за чат, Copilot в Bing разполага инструменти за откриване на сексуална експлоатация на деца и изображения за злоупотреба (CSEAI), най-забележимата технология за съпоставяне на хешовете на PhotoDNA. Microsoft разработи PhotoDNA за откриване на дубликати на известни CSEAI. Microsoft съобщава всички явни CSEAI на Националния център за изчезнали и експлоатирани деца (NCMEC), както се изисква от законодателството на САЩ. Когато потребителите качват файлове за анализиране или обработка, Copilot разполага автоматизирано сканиране за откриване на съдържание, което може да доведе до рискове или злоупотреба, като например текст, който може да се отнася до незаконни дейности или злонамерен код.
Защита на поверителността
Дългогодишното убеждение на Microsoft, че поверителността е основно човешко право, е информирало всеки етап от разработването и внедряването на Copilot в Bing среда на Microsoft. Нашите ангажименти за защита на поверителността на всички потребители, включително чрез предоставяне на физическите лица на прозрачност и контрол върху техните данни и интегриране на поверителността чрез проектиране чрез минимизиране на данните и ограничаване на целта, са основополагащи за Copilot в Bing. Докато развиваме подхода си към предоставянето на жанративните изживявания с ИИ на Copilot в Bing, непрекъснато ще проучваме как най-добре да защитим поверителността. Този документ ще бъде актуализиран, докато го правим. Повече информация относно начина, по който Microsoft защитава поверителността на нашите потребители, е налична в Декларацията за поверителност на Microsoft.
В Copilot в Windows опит уменията на Windows могат, като част от функционалността си, да споделят потребителска информация с чат разговора. Това подлежи на одобрение от потребителя и се показват подкани за потребителския интерфейс, за да се потвърди намерението на потребителя, преди информацията за потребителя да бъде споделена с чата разговор.
Microsoft продължава да разглежда нуждите на децата и младите хора като част от оценките на риска на новите жанративни функции на ИИ в Copilot в Bing. Всички детски акаунти в Microsoft, които идентифицират потребителя като потребител на възраст под 13 години или както е посочено по друг начин в местните закони, не могат да влизат за достъп до пълната нова среда на работа на Bing.
Както е описано по-горе, за всички потребители сме приложили предпазни мерки, които смекчават потенциално опасно съдържание. В Copilot в Bing резултатите се задават като в строгия режим на безопасно търсене на Bing, който има най-високо ниво на защита на безопасността в основното търсене на Bing, като по този начин не позволява на потребителите, включително потребители на тийнейджъри, да бъдат изложени на потенциално опасно съдържание. В допълнение към информацията, която сме предоставили в този документ и в нашите ЧЗВ относно функциите за чат, повече информация за това как работи Copilot в Bing, за да се избегне отговарянето с неочаквано обидно съдържание в резултатите от търсенето, можете да намерите тук.
Microsoft се ангажира да не предоставя персонализирана реклама въз основа на поведението онлайн на деца, чиито рождени години в акаунта им в Microsoft ги идентифицират като деца под 18 години. Тази важна защита ще обхване рекламите във функциите за Copilot в Bing. Потребителите може да виждат контекстни реклами въз основа на заявката или подкана, използвана за взаимодействие с Bing.
За да отключим трансформиращия потенциал на генеративния ИИ, трябва да изградим доверие в технологиите, като дадем възможност на хората да разберат как се използват техните данни и им предоставим смислен избор и контрол над данните им. Copilot в Bing е предназначена за приоритизиране на човешкия избор, чрез предоставяне на информация за начина на работа на продукта, както и неговите ограничения, както и чрез разширяване на нашите стабилни потребителски избори и контрол, така че да Copilot в Bing функции.
Декларацията за поверителност на Microsoft предоставя информация за нашите прозрачни практики за поверителност за защита на нашите клиенти и съдържа информация за контролите, които дават на нашите потребители възможността да преглеждат и управляват личните си данни. За да се гарантира, че потребителите разполагат с необходимата информация, когато взаимодействат с новите разговорни функции на Bing, оповестяването на информация в продукта информира потребителите, че работят с продукт с ИИ, и предоставяме връзки към допълнителни ЧЗВ и обяснения относно начина на работа на тези функции. Microsoft ще продължи да слуша обратната връзка от потребителите и ще добави допълнителни подробности за разговорните функции на Bing според необходимостта, за да поддържа разбирането на начина, по който работи продуктът.
Microsoft също така предоставя на своите потребители стабилни инструменти за упражняване на правата им върху личните им данни. За данни, които се събират от Copilot в Bing, включително чрез потребителски заявки и подкани, таблото за поверителност на Microsoft предоставя на удостоверени (влезли) потребители инструменти за упражняване на правата им на субект на данни, включително като предоставя на потребителите възможността да преглеждат, експортират и изтриват съхранена хронология на разговорите. Microsoft продължава да приема обратна връзка за това как иска да управлява новата си среда за работа с Bing, включително чрез използването на функции за управление на данни в контекст.
Copilot в Bing също така уважава исканията в рамките на европейското право да бъдат забравени, като следва процеса, който Microsoft разработи и прецизира за традиционната функционалност на търсене на Bing. Всички потребители могат да съобщават за притеснения относно генерирано съдържание и отговори тук, а нашите европейски потребители могат да използват този формуляр , за да подават заявки за блокиране на резултати от търсене в Европа под правото да бъдат забравени.
Copilot в Bing ще уважи избора на поверителност на потребителите, включително тези, които преди това са били направени в Bing, като например съгласие за събиране и използване на данни, което е поискано чрез банери с бисквитки и контроли, налични в таблото за поверителност на Microsoft. За да помогнем за разрешаването на автономията на потребителите и свободата на избор при вземането на информирани решения, използвахме нашия вътрешен процес на преглед, за да проучим внимателно как се представят възможностите за избор на потребителите.
В допълнение към контролите, налични чрез таблото за поверителност на Microsoft, които позволяват на потребителите да преглеждат, експортират и изтриват хронологията на търсене, включително компоненти на тяхната хронология на чата, удостоверени потребители, които са разрешили функцията за хронология на чата в продукта, имат възможност да преглеждат, осъществяват достъп до и изтеглят хронологията на чата чрез контроли в продукта. Потребителите могат да изчистят определени чатове от хронологията на чата или да изключат напълно функционалността на хронологията на чата по всяко време, като посетят страницата с настройки на Bing. Потребителите също така могат да изберат дали да позволят персонализиране на достъпа до по-персонализирана среда за работа с персонализирани отговори. Потребителите могат да се отпишат и да се отпишат от персонализирането по всяко време от настройките на чата на страницата с настройки на Bing. Изчистването на определени чатове от хронологията на чата не позволява използването им за персонализиране. ЧЗВ.
Повече информация за хронологията на чата и персонализирането се предоставя на потребителите в Copilot в BingCopilot в Bing е изградена, като се има предвид поверителността, така че личните данни се събират и използват само при необходимост и се запазват не по-дълго от необходимото. Както беше споменато по-горе, функцията "Визуално търсене в Copilot в Bing" разполага механизъм, който замъглява лица в изображенията по време на качването от потребителите, така че лицевите изображения да не се обработват или съхраняват допълнително. Повече информация относно личните данни, които Bing събира, начина, по който ги използва, и начина, по който те се съхраняват и изтриват, е налична в Декларацията за поверителност на Microsoft, която също предоставя информация за новите функции за чат на Bing.
Копилотирането в Bing има правила за съхранение и изтриване на данни, за да се гарантира, че личните данни, събирани чрез функциите за чат на Bing, се запазват толкова дълго, колкото е необходимо.
Ще продължим да учим и развиваме нашия подход в предоставянето на Copilot в Bing и след като го правим, ще продължим да работим по различни дисциплини, за да приведем иновациите в ИИ с човешките ценности и основните права, включително защита на младите потребители и неприкосновеността на личния живот.
Copilot with commercial data protection
Копилот със защитата на търговските данни, известен преди като Bing Chat Enterprise ("BCE"), беше пуснат от Microsoft в безплатен публичен предварителен преглед през юли 2023 г. като безплатна добавка за определени клиенти на M365. Копилотирането със защитата на търговски данни е подобрено с ИИ уеб търсене за крайните корпоративни потребители.
Както при Copilot в Bing, когато copilot с търговска защита на данните крайният потребител влезе в интерфейса, подканата, незабавният разговор, най-добрите резултати от търсенето и метапромпт се изпращат като входни данни в LLM. Моделът генерира отговор с помощта на хронологията на подканите и незабавните разговори за контекстуализиране на искането, метапромпт за съгласуване на отговорите с принципите на ИИ на Microsoft и очакванията на потребителите, както и резултатите от търсенето на наземни отговори в съществуващо, високо класиране на съдържание от интернет. Това работи по същия начин като Copilot в Bing, както е описано по-горе в този документ, с изключение на това, че Copilot със защита на търговските данни разчита само на незабавна хронология на разговорите (не скорошна хронология на разговорите), тъй като съхранената хронология на чата не е поддържана в момента функция. Designer и визуалното търсене вече са налични в тази версия.
Подобно на други технологии за трансформация, използването на ползите от ИИ не е без риск, а основната част от програмата за отговорен ИИ на Microsoft е предназначена да идентифицира потенциалните рискове, да измерва склонността им да възниква и да изгражда смекчавания на последствията, за да се справи с тях. И отново, гореописаното описание на усилията на Microsoft за идентифициране, измерване и намаляване на потенциалните рискове за Copilot в Bing важи и за тази версия, с някои разяснения относно смекчаванията, описани по-долу:
Поетапно освобождаване, непрекъснато оценяване. Подобно на Copilot Bing, за Copilot със защитата на търговските данни също възприехме подход за постъпково издание. На 18 юли 2023 г. Copilot със защита на търговските данни стана наличен като безплатен предварителен преглед за отговарящи на условията корпоративни клиенти с конкретни акаунти за M365, които да се включат за крайните потребители на предприятието. Тридесет (30) дни след уведомяването на отговарящите на условията корпоративни клиенти, Copilot със защита на търговските данни стана "включена по подразбиране" за същите тези клиенти. Copilot със защитата на търговските данни също стана достъпно за конкретни образователни акаунти за M365 преподаватели. Copilot със защитата на търговските данни стана общодостъпна за определени корпоративни клиенти на 1 декември 2023 г. В бъдеще планираме да разширим достъпа до Copilot със защита на търговските данни за повече Microsoft Entra ID потребители.
Условия на използване и Кодекс на поведение. Крайните потребители на Copilot със защита на търговските данни трябва да спазват условията за използване на крайния потребител. Настоящите Условия на използване информират крайните потребители за допустимото и недопустимо използване и последиците от нарушаването на условията.
операции и бърза реакция. Също така използваме текущите процеси на наблюдение и оперативни процеси на Copilot в Bing, за да се справим с това кога Copilot със защитата на търговските данни получава сигнали или получава отчет, показващ евентуална злоупотреба или нарушения на условията за използване на Крайния потребител.
Обратна връзка, наблюдение и надзор. Копирното средство за защита на търговските данни използва същите инструменти като Copilot в Bing, за да могат потребителите да подават обратна връзка и да докладват за притесненията, които се преглеждат от оперативните екипи на Microsoft. оперативните процеси на Copilot в Bing също се разшириха, за да обхванат функциите в рамките на Copilot с търговски изживявания, свързани със защитата на данните, например актуализирането на страницата "Доклад за опасение", така че да включва новите типове съдържание, генерирано от потребителите с помощта на модела.
За да се гарантира, че крайните потребители имат необходимата информация, когато взаимодействат с Copilot със защита на търговските данни, има продуктова документация, налична в долната част на този документ, включително често задавани въпроси и страници Научете повече.
Подкани и отговорите, генерирани от крайните потребители в Copilot със защита на търговските данни, се обработват и съхраняват в съответствие със стандартите за обработка на корпоративни данни. Към момента копилотът с предлагането за защита на търговски данни е достъпен само за корпоративни клиенти и техните удостоверени възрастни крайни потребители, поради което не очакваме децата или младите хора да бъдат крайни потребители на Copilot със защита на търговските данни в момента. Освен това Copilot със защитата на търговските данни не предоставя поведенческа реклама за крайните потребители. Вместо това всички реклами, които се показват, са само реклами, подходящи за контекста.
Научете повече
Този документ е част от по-широки усилия в Microsoft за прилагане на нашите принципи на ИИ. За да научите повече, вижте:
Подход на Microsoft към отговорен ИИ
Microsoft е отговорен AI Standard
За този документ
© 2023 Microsoft. Всички права запазени. Този документ се предоставя "както е" и само с информационна цел. Информацията и изгледите, изразени в този документ, включително URL адресите и други препратки към уеб сайтове в интернет, може да се променят без предизвестие. Вие поемате риска да го използвате. Някои примери са само за илюстрация и са измислени. Никое истинско сдружение не е предназначено или подразбирано.