Перейти к основному контенту
Поддержка
Войдите с помощью учетной записи Майкрософт
Войдите или создайте учетную запись.
Здравствуйте,
Выберите другую учетную запись.
У вас несколько учетных записей
Выберите учетную запись, с помощью которой нужно войти.

Последнее обновление: февраль 2024 г.

Основы Copilot в Bing   

Введение  

В феврале 2023 г. корпорация Майкрософт запустила новую версию Bing— интерфейс поиска в Интернете, улучшенный СИ. Он поддерживает пользователей, суммируя результаты поиска в Интернете и предоставляя взаимодействие с чатом. Пользователи также могут создавать творческий контент, например стихи, шутки, рассказы и, с помощью Создатель изображений Bing, изображения. Новая модель Bing с улучшением искусственного интеллекта работает на различных передовых технологиях Майкрософт и OpenAI, включая GPT-4, передовую модель большого языка (LLM) и DALL-E, модель глубокого обучения для создания цифровых изображений на основе описания естественного языка, как из OpenAI. Мы работали с обеими моделями в течение нескольких месяцев до общедоступного выпуска, чтобы разработать настраиваемый набор возможностей и методов для присоединения к этой передовой технологии ИИ и веб-поиска в новом Bing.  В ноябре 2023 года корпорация Майкрософт переименовала новый Bing в Copilot в Bing.

Корпорация Майкрософт серьезно относится к нашим обязательствам по ответственному ИИ. Опыт Copilot в Bing был разработан в соответствии с принципами ИИ Майкрософт, Стандартом ответственного ИИ Корпорации Майкрософт, а также в сотрудничестве с ответственными экспертами по искусственному интеллекту в компании, включая Отдел майкрософт по ответственному ИИ, наши инженерные команды, Microsoft Research и Aether. Дополнительные сведения об ответственном ИИ в Корпорации Майкрософт см. здесь.  

В этом документе описывается наш подход к ответственному использованию ИИ для Copilot в Bing. Перед выпуском мы внедрили методы с самыми возможностями для выявления, измерения и снижения потенциальных рисков и неправильного использования системы, а также для обеспечения ее преимуществ для пользователей. По мере того как мы продолжаем развивать Copilot в Bing с момента первого выпуска, мы также продолжаем учиться и совершенствовать наши ответственные усилия по искусственному интеллекту. Этот документ будет периодически обновляться для информирования о наших изменяющихся процессах и методах.   

Ключевые термины  

Copilot в Bing — это улучшенный интерфейс поиска в Интернете с помощью искусственного интеллекта. По мере того как он работает на мощной, новой технологии, мы начнем с определения некоторых ключевых терминов.  

Модели машинного обучения, помогающие сортировать данные по помеченным классам или категориям информации. В Copilot в Bing один из способов использования классификаторов заключается в том, чтобы помочь обнаружить потенциально опасное содержимое, отправленное пользователями или созданное системой, чтобы предотвратить создание этого содержимого и неправильное использование или злоупотребление системой. 

Copilot в Bing базируется на результатах поиска в Интернете, когда пользователи ищут информацию. Это означает, что мы центрируем ответ, предоставленный на запрос пользователя или запрос, на содержимое с высоким рейтингом из Интернета, а также предоставляем ссылки на веб-сайты, чтобы пользователи могли узнать больше. Bing ранжирует контент веб-поиска, в значительной степени взвешивая такие функции, как релевантность, качество и доверие, а также свежесть. Мы более подробно описываем эти понятия в статье Как Bing обеспечивает результаты Поиск (см. раздел "Качество и надежность" в разделе "Как Bing занимает Поиск результаты").   

Мы рассматриваем обоснованные ответы как ответы от Copilot в Bing, в которых инструкции поддерживаются информацией, содержащейся во входных источниках, таких как результаты веб-поиска из запроса или запроса, база знаний Bing проверенных сведений, а для взаимодействия с чатом — последние журналы бесед из чата. Безосноваемые ответы — это ответы, в которых оператор не имеет основания для этих источников входных данных.  

Большие языковые модели (LLM) в этом контексте — это модели ИИ, которые обучаются на больших объемах текстовых данных для прогнозирования слов в последовательностях. LLM могут выполнять различные задачи, такие как создание текста, формирование сводных данных, перевод, классификация и многое другое.  

Метавыка — это программа, которая служит для руководства поведением системы. Части метавывывумы помогают согласовать поведение системы с принципами ИИ Майкрософт и ожиданиями пользователей. Например, метавывывуха может включать строку, например "Общаться на выбранном пользователем языке".  

Метод или сочетание методов, предназначенных для снижения потенциальных рисков, которые могут возникнуть при использовании функций на основе ИИ в Copilot в Bing.  

Текст, голос, изображения и (или) другие включенные запросы, которые пользователь отправляет В Bing в качестве входных данных для модели, которая обеспечивает новые генеративные возможности на основе ИИ в Bing. Например, пользователь может ввести следующий запрос:  

"Я планирую поездку на нашу годовщину в сентябре. Какие места мы можем пойти, которые находятся в 3-часовом полете от Лондона Хитроу?”  

Текст, который пользователь отправляет Bing из строки поиска для поиска в Интернете. В этом документе мы отличаем запрос (для поиска в Интернете) от запроса (для генеративных интерфейсов на основе ИИ в Bing). Например, пользователь может ввести следующий запрос для поиска в Интернете:  

"туристические направления вблизи лондонского аэропорта Хитроу"  

Методы, используемые экспертами для оценки ограничений и уязвимостей системы и для проверки эффективности запланированных мер по устранению рисков. Красное командное тестирование и стресс-тестирование используются для выявления потенциальных рисков и отличаются от систематического измерения рисков.   

Текст, изображение, диаграммы и т. д., которые Копилот в Bing выводит в ответ на запрос. Синонимы для "ответ" включают "завершение", "поколение" и "ответ". Например, Bing может предоставить следующий ответ на запрос, который мы использовали в определении "prompt" выше:   

"Поздравляем с юбилеем! Есть много мест, которые вы можете пойти, которые находятся в 3-часовом полете от Лондона Хитроу. По данным одного источника, некоторые из выходных побегов в течение трех часов на самолете из Лондона являются Бильбао, Копенгаген, Рейкьявик и Стокгольм 1, 2. Другой источник предполагает, что некоторые из лучших мест, чтобы пойти в Европе в сентябре являются Краков, Флоренция, и Лиссабон 3, 4. Вы также можете проверка прямые рейсы из Лондон Хитроу в различные направления и посмотреть, что привлекает вас 5. Я надеюсь, что у вас будет замечательное путешествие!”  

Предполагаемое использование и новые возможности ИИ  

Copilot в Bing предназначено для подключения пользователей с соответствующими результатами поиска, просмотра результатов из Интернета, чтобы найти и суммировать ответы, которые ищут пользователи, помочь пользователям уточнить свои исследования, чтобы получить ответы с помощью чата, и зажигать творчество, помогая пользователям создавать контент. Copilot в генеративных интерфейсах ИИ Bing, приведенных ниже, поддерживают цель стать копилотом на основе ИИ для Интернета.  

Уплотнения. Когда пользователи отправляют поисковый запрос в Copilot в Bing, система Bing обрабатывает запрос, выполняет один или несколько поисковых запросов в Интернете и использует результаты поиска в интернете для создания сводки информации для представления пользователям. Эти сводки содержат ссылки, помогающие пользователям просматривать результаты поиска, используемые для создания сводки, и легко получать к ним доступ. Сводки могут отображаться в правой части страницы результатов поиска и в чате.  

Взаимодействие с чатом. Помимо суммирования, пользователи могут общаться с Copilot в системе Bing с помощью текста, изображения или голосового ввода, задавать дополнительные вопросы, чтобы уточнить поиск и найти новую информацию, а также отправлять запросы для создания творческого контента. Ссылки также включаются в чат, когда Copilot в Bing суммирует результаты поиска в ответе.   

Создание творческого контента. В чате и на странице поиска пользователи могут создавать стихи, шутки, рассказы, изображения и другое содержимое с помощью Copilot в Bing.  Изображения создаются Designer (прежнее Создатель изображений Bing), и пользователи могут получить доступ к этой функции через Designer домашнюю страницу, а также страницу Copilot. 

Как работает Copilot в Bing?  

С Copilot в Bing мы разработали инновационный подход, чтобы принести современные LLM в веб-поиск. Когда пользователь вводит запрос в Copilot в Bing, запрос, журнал последних бесед, метавыставка и первые результаты поиска отправляются в качестве входных данных в LLM. Модель создает ответ, используя запрос пользователя и журнал последних бесед для контекстуализации запроса, метавывывку для согласования ответов с принципами ИИ Майкрософт и ожиданиями пользователей, а результаты поиска соответствуют ответам в существующем содержимом с высоким рейтингом из Интернета.   

Ответы предоставляются пользователям в нескольких разных форматах, таких как традиционные ссылки на веб-содержимое, сводные данные, созданные СИ, изображения и ответы в чате. Сводные данные и ответы в чате, основанные на результатах поиска в Интернете, будут включать ссылки и раздел "Подробнее" под ответами со ссылками на результаты поиска, которые использовались для создания ответа. Пользователи могут щелкнуть эти ссылки, чтобы узнать больше о теме и сведениях, используемых для создания сводки или ответа в чате.    

В интерфейсе Copilot пользователи могут выполнять поиск в Интернете в беседе, добавляя контекст в запрос и взаимодействуя с ответами системы, чтобы дополнительно указать свои поисковые интересы. Например, пользователь может задавать дополнительные вопросы, запрашивать дополнительную уточняющую информацию или отвечать на систему в беседе. В чате пользователи также могут выбрать ответ из предварительно написанных предложений, которые мы называем предложениями чата. Эти кнопки отображаются после каждого ответа от Copilot и предоставляют подсказки для продолжения беседы в чате. Предложения чата также отображаются вместе с обобщенным содержимым на странице результатов поиска в качестве точки входа для взаимодействия с чатом.  

Copilot в Bing также позволяет пользователю создавать истории, стихи, тексты песен и изображения с помощью Bing. Когда Copilot в Bing обнаруживает намерение пользователя создать творческое содержимое (например, запрос начинается с "написать мне ..."), система в большинстве случаев создает содержимое, реагирующее на запрос пользователя. Аналогичным образом, когда Copilot в Bing обнаруживает намерение пользователя создать изображение (например, запрос начинается с "draw me a..."), система в большинстве случаев создает изображение, реагирующее на запрос пользователя. В visual Поиск в чате с изображением, сделанным камерой пользователя, отправленным с устройства пользователя или связанным из Интернета, пользователи могут предложить Copilot в Bing понять контекст, интерпретировать и ответить на вопросы об изображении.  Пользователи также могут передавать свои файлы в Copilot для интерпретации, преобразования, обработки или вычисления информации из них. В интерфейсе Microsoft Designer, к которому пользователи могут получить доступ через Copilot в Bing, пользователи могут не только создавать изображения с помощью запросов, но и изменять их размер или изменять их, а также вносить изменения, такие как размытие фона или сделать цвета более яркими. 

Пользователи с учетными записями Майкрософт (MSA) теперь также могут подписаться на Copilot Pro, которая предлагает расширенные возможности, включая ускорение производительности, более быстрое создание образов ИИ и возможность вскоре создавать собственные объекты групповой политики Copilot. Copilot Pro в настоящее время доступна в ограниченных странах, и мы планируем в ближайшее время сделать Copilot Pro доступными на других рынках.

В интерфейсе Copilot пользователи могут получить доступ к GPT Copilot. Copilot GPT, как Designer GPT, — это настраиваемая версия Microsoft Copilot по интересующей вас теме, такой как фитнес, путешествия и приготовление пищи, которая может помочь превратить расплывчатые или общие идеи в более конкретные подсказки с выходными данными, включая тексты и изображения. В Copilot пользователи могут видеть доступные объекты групповой политики Copilot, а пользователи с Copilot Pro учетными записями скоро получат доступ к Copilot GPT Builder, функции, которая позволяет пользователям создавать и настраивать настраиваемый Copilot GPT. Упомянутые выше меры по устранению рисков ответственного ИИ для Copilot в Bing применяются к GPT Copilot.

Дополнительные сведения о том, как работают Copilot Pro и Copilot GPT, см. здесь.

Copilot в Bing стремится предоставлять разнообразные и исчерпывающие результаты поиска с его приверженностью свободному и открытому доступу к информации. В то же время наши усилия по обеспечению качества продукции включают в себя работу, чтобы избежать непреднамеренного продвижения потенциально опасного содержимого для пользователей. Дополнительные сведения о том, как Bing ранжирует содержимое, в том числе как он определяет релевантность, а также качество и доверие к веб-странице, см. в разделе Руководство Bing для веб-мастеров.   Дополнительные сведения о принципах модерации содержимого Bing см. в разделе Как Bing предоставляет результаты поиска.   

В интерфейсе Copilot в Windows Copilot в Bing может работать с операционной системой Windows, чтобы предоставить специальные навыки Windows, такие как изменение темы или фона пользователя, а также изменение параметров, таких как звук, Bluetooth и сеть. Эти возможности позволяют пользователю настроить свои параметры и улучшить взаимодействие с пользователем с помощью запросов на естественном языке к LLM. Функциональные возможности приложений также можно предоставлять из подключаемых модулей сторонних приложений. Они позволяют автоматизировать повторяющиеся задачи и повысить эффективность работы пользователей. Так как LLM иногда могут совершать ошибки, предоставляются соответствующие запросы на подтверждение пользователя, чтобы пользователь был последним арбитром изменений, которые могут быть внесены. 

Выявление, измерение и устранение рисков  

Как и другие трансформационные технологии, использование преимуществ ИИ не является безрисковый, и основная часть программы ответственного ИИ Майкрософт предназначена для выявления потенциальных рисков, измерения их склонности к возникновению и создания мер по устранению этих рисков. Руководствуясь принципами ИИ и стандартом ответственного ИИ, мы стремились выявить, измерять и устранять потенциальные риски и неправильное использование Copilot в Bing, обеспечивая при этом преобразующее и полезное использование, которое предоставляет новый интерфейс. В разделах ниже описан наш итеративный подход к выявлению, измерению и снижению потенциальных рисков.   

На уровне модели наша работа началась с исследовательского анализа GPT-4 в конце лета 2022 года. Это включало проведение обширного тестирования красной команды в сотрудничестве с OpenAI. Это тестирование было разработано для оценки того, как будет работать новейшая технология без каких-либо дополнительных мер предосторожности, применяемых к ней. В настоящее время мы намеревались создать вредные меры реагирования, выявить потенциальные пути для неправильного использования, а также выявить возможности и ограничения. Наши объединенные учебные курсы в OpenAI и Майкрософт способствовали достижению прогресса в разработке моделей, и для нас в Корпорации Майкрософт мы узнали о рисках и способствовали ранним стратегиям по устранению рисков для Copilot в Bing.  

В дополнение к тестированию красной команды на уровне модели, междисциплинарная группа экспертов провела многочисленные раунды тестирования красной команды на уровне приложений на Copilot в Bing AI опыт, прежде чем сделать их общедоступными в нашей ограниченной предварительной версии. Этот процесс помог нам лучше понять, как система может быть использована состязаемыми субъектами, и улучшить наши меры по устранению рисков. Не-состязаители стресс-тестеров также тщательно оценили новые возможности Bing на наличие недостатков и уязвимостей. После выпуска новые возможности ИИ в Bing интегрируются в существующую рабочую инфраструктуру измерения и тестирования организации Bing. Например, тестировщики красной команды из разных регионов и слоев постоянно и систематически пытаются скомпрометировать систему, и их результаты используются для расширения наборов данных, используемых Bing для улучшения системы.  

Красное командное тестирование и стресс-тестирование могут вылиться в экземпляры определенных рисков, но в рабочей среде пользователи будут иметь миллионы разных видов бесед с Copilot в Bing. Кроме того, беседы являются многоэтапными и контекстуальными, и выявление вредоносного содержимого в беседе является сложной задачей. Чтобы лучше понять и устранить потенциальные риски в Copilot в Bing AI опыте, мы разработали дополнительные метрики ответственного ИИ, характерные для этих новых возможностей ИИ, для измерения потенциальных рисков, таких как джейлбрейки, вредоносное содержимое и неосноваемое содержимое. Мы также включили измерение в масштабе с помощью частично автоматизированных конвейеров измерения. При каждом изменении продукта, обновлении существующих мер по устранению рисков или предложении новых мер по устранению рисков мы обновляем конвейеры измерений, чтобы оценить производительность продукта и метрики ответственного использования ИИ.  

В качестве наглядного примера обновленный частично автоматизированный конвейер измерения для вредоносного содержимого включает два основных нововведения: имитацию беседы и автоматическую, проверенную человеком заметку беседы. Во-первых, ответственные эксперты по ИИ создали шаблоны для отслеживания структуры и содержимого бесед, которые могут привести к различным типам вредоносного содержимого. Затем эти шаблоны были переданы агенту беседы, который взаимодействовал как гипотетический пользователь с Copilot в Bing, создавая имитированные беседы. Чтобы определить, содержат ли эти имитированные беседы вредоносное содержимое, мы приняли рекомендации, которые обычно используются экспертами-лингвистами для маркировки данных, и изменили их для использования GPT-4 для маркировки бесед в большом масштабе, уточняя рекомендации до тех пор, пока не было достигнуто значительное согласие между беседами, помеченными моделью, и беседами, помеченными человеком. Наконец, мы использовали беседы с метками модели для вычисления ответственной метрики ИИ, которая фиксирует эффективность Copilot в Bing при устранении вредоносного содержимого.   

Наши конвейеры измерений позволяют нам быстро измерять потенциальные риски в большом масштабе. По мере выявления новых проблем в течение периода предварительной версии и текущего тестирования красной команды мы продолжаем расширять наборы измерений для оценки дополнительных рисков.  

Так как мы определили потенциальные риски и неправильное использование с помощью таких процессов, как тестирование красной команды и стресс-тестирование, и измерили их с помощью описанных выше инновационных подходов, мы разработали дополнительные способы устранения рисков для тех, которые используются для традиционного поиска. Ниже описаны некоторые из этих мер. Мы продолжим мониторинг Copilot в Bing AI опыте для повышения производительности продукта и устранения рисков.  

Поэтапный выпуск, непрерывная оценка. Мы стремимся постоянно учиться и совершенствовать наш подход к ответственному ИИ по мере развития наших технологий и поведения пользователей. Наша стратегия добавочного выпуска была основной частью того, как мы безопасно перемещаем наши технологии из лабораторий в мир, и мы привержены преднамеренному, вдумчивый процесс, чтобы обеспечить преимущества Copilot в Bing. Ограничение числа пользователей с доступом в течение периода предварительной версии позволило нам узнать, как люди используют Copilot в Bing, в том числе как люди могут злоупотреблять им, чтобы попытаться устранить возникающие проблемы до более широкого выпуска. Например, мы требуем, чтобы пользователи прошли проверку подлинности с помощью учетной записи Майкрософт, прежде чем получать доступ к полному новому интерфейсу Bing. Пользователи без проверки подлинности могут получить доступ только к ограниченной предварительной версии интерфейса. Эти меры препятствуют злоупотреблениям и помогают нам (при необходимости) принять соответствующие меры в ответ на нарушения Правил поведения.  Мы ежедневно вносим изменения в Copilot в Bing, чтобы повысить производительность продукта, улучшить существующие способы устранения рисков и внедрить новые способы устранения рисков в ответ на наши знания в течение периода предварительной версии.  

Заземление в результатах поиска. Как отмечалось выше, Copilot в Bing предназначен для предоставления ответов, поддерживаемых информацией в результатах поиска в Интернете, когда пользователи ищут информацию. Например, система предоставляется с текстом из верхних результатов поиска и инструкциями через метавывку, чтобы заземлить ее ответ. Однако при обобщении содержимого из Интернета Copilot в Bing может включать в свой ответ информацию, которая отсутствует во входных источниках. Иными словами, это может привести к необоснованным результатам. Наши ранние оценки показали, что необоснованные результаты в чате могут быть более распространенными для определенных типов запросов или тем, чем для других, таких как запрос математических вычислений, финансовую или рыночную информацию (например, доходы компании, данные о производительности акций), а также информацию, например точные даты событий или конкретные цены на товары. Пользователи всегда должны проявлять осторожность и использовать свои наилучшие суждения при просмотре сводных результатов поиска, будь то на странице результатов поиска или в чате. Мы приняли несколько мер, чтобы снизить риск того, что пользователи могут чрезмерно полагаться на нераспределенное содержимое в сценариях формирования сводных данных и чатах. Например, ответы в Copilot в Bing, основанные на результатах поиска, включают ссылки на исходные веб-сайты, чтобы пользователи проверили ответ и узнали больше. Пользователям также предоставляется явное уведомление о том, что они взаимодействуют с системой ИИ, и рекомендуется проверка исходные веб-материалы результатов, чтобы помочь им использовать их наилучшее суждение.  

Классификаторы на основе ИИ и метавыкания для снижения потенциальных рисков или неправильного использования. Использование LLM может создать проблемное содержимое, которое может привести к рискам или неправильному использованию. Примерами могут быть выходные данные, связанные с самоповреждения, насилием, графическим контентом, интеллектуальной собственностью, неточной информацией, ненавистнительной речью или текстом, который может относиться к незаконной деятельности. Классификаторы и метавыкания — это два примера мер по устранению рисков, которые были реализованы в Copilot в Bing для снижения риска таких типов содержимого. Классификаторы классифицируют текст, чтобы помечать различные типы потенциально опасного содержимого в поисковых запросах, запросах чата или созданных ответах. Bing использует классификаторы на основе ИИ и фильтры содержимого, которые применяются ко всем результатам поиска и соответствующим функциям; Мы разработали дополнительные классификаторы запросов и фильтры содержимого специально для устранения возможных рисков, связанных с функциями Copilot в Bing. Флаги приводят к потенциальному устранению рисков, таких как отсутствие возврата созданного содержимого пользователю, перенаправление пользователя на другой раздел или перенаправление пользователя на традиционный поиск. Метавыставка включает в себя предоставление модели инструкций по ее поведению, в том числе для того, чтобы система вела себя в соответствии с принципами ИИ Майкрософт и ожиданиями пользователей. Например, метавывывуха может включать строку, например "Общаться на выбранном пользователем языке".   

Защита конфиденциальности в Visual Поиск в Copilot в Bing. Когда пользователи отправляют изображение в рамках запроса чата, Copilot в Bing будет использовать технологию размытия лиц перед отправкой изображения в модель ИИ. Размытие лица используется для защиты конфиденциальности людей на изображении. Технология размытия лиц основана на контекстных подсказках для определения места размытия и будет пытаться размыть все лица. Если лица размыты, модель ИИ может сравнить входное изображение с изображениями, доступными в Интернете. В результате, например, Copilot в Bing может быть в состоянии идентифицировать известного баскетболиста по фотографии этого игрока на баскетбольной площадке, создав числовое представление, которое отражает номер джерси игрока, цвет джерси, наличие обруча баскетбола и т. д. Copilot в Bing не хранит числовые представления людей из загруженных изображений и не предоставляет их третьим лицам. Copilot в Bing использует числовые представления изображений, которые пользователи отправляют только для ответа на запросы пользователей, а затем удаляются в течение 30 дней после завершения чата.    

Если пользователь запрашивает у Copilot в Bing сведения о загруженном изображении, ответы в чате могут отражать влияние размытия лица на способность модели предоставлять сведения о загруженном изображении. Например, Copilot в Bing может описать кого-то как с размытым лицом.    

Ограничение смещения беседы. В течение периода предварительной версии мы узнали, что очень длинные сеансы чата могут привести к повторяющимся, бесполезным или несогласованным с Copilot в предполагаемом тоне Bing. Чтобы устранить эту смещение в беседе, мы ограничили количество поворотов (обменов, содержащих как вопрос пользователя, так и ответ от Copilot в Bing) на сеанс чата. Мы продолжаем оценивать дополнительные подходы к устранению этой проблемы.  

Запрос на обогащение. В некоторых случаях запрос пользователя может быть неоднозначным. Когда это происходит, Copilot в Bing может использовать LLM для создания дополнительных сведений в запросе, чтобы помочь пользователям получить нужный ответ. Такое оперативное обогащение не зависит от каких-либо знаний пользователя или его предыдущих поисковых запросов, а на модели ИИ. Эти измененные запросы будут отображаться в журнале чатов пользователя и, как и другие поисковые запросы, можно удалить с помощью элементов управления в продукте.  

Ориентированное на пользователя проектирование и взаимодействие с пользователем. Ориентированное на пользователя проектирование и взаимодействие с пользователем являются важным аспектом подхода Корпорации Майкрософт к ответственному ИИ. Цель заключается в том, чтобы укоренять дизайн продукта с учетом потребностей и ожиданий пользователей. Когда пользователи впервые взаимодействуют с Copilot в Bing, мы предлагаем различные точки соприкосновения, предназначенные для того, чтобы помочь им понять возможности системы, раскрыть им, что Copilot в Bing работает на основе ИИ, и сообщить об ограничениях. Этот интерфейс разработан таким образом, чтобы помочь пользователям получить максимум от Copilot в Bing и свести к минимуму риск чрезмерной зависимости. Элементы интерфейса также помогают пользователям лучше понять Copilot в Bing и их взаимодействия с ним. К ним относятся предложения чата, относящиеся к ответственному ИИ (например, как Bing использует ИИ? Почему Copilot в Bing не отвечает на некоторые темы?), объяснения ограничений, способы, которыми пользователи могут узнать больше о работе системы и сообщить об обратной связи, а также легко перемещаться по ссылкам, которые отображаются в ответах, чтобы показать пользователям результаты и страницы, на которых базируются ответы.  

Раскрытие ИИ. Copilot в Bing предоставляет несколько точек соприкосновения для значимого раскрытия ИИ, когда пользователи получают уведомления о том, что они взаимодействуют с системой ИИ, а также возможности узнать больше о Copilot в Bing. Предоставление пользователям этих знаний поможет им избежать чрезмерной зависимости от ИИ и узнать о сильных сторонах и ограничениях системы.  

Происхождение средств массовой информации.Microsoft Designer включена функция "Учетные данные содержимого", которая использует криптографические методы для маркировки источника или "происхождения" всех созданных ИИ образов, созданных на Designer. Невидимая цифровая подложка показывает источник, время и дату создания исходного кода, и эти сведения нельзя изменить. Технология использует стандарты, установленные Коалицией за содержимое и подлинность (C2PA), чтобы добавить дополнительный уровень доверия и прозрачности для изображений, созданных ИИ. Корпорация Майкрософт является соучредителем C2PA и внесла свой вклад в создание основной технологии создания цифрового содержимого. 

Условия использования и правила поведения. Этот ресурс управляет использованием Copilot в Bing. Пользователи должны соблюдать Условия использования и Кодекс поведения, которые, среди прочего, информируют их о допустимом и недопустимом использовании и последствиях нарушения условий. Условия использования также предоставляют дополнительные сведения о раскрытии информации для пользователей и служат удобной справкой для пользователей, чтобы узнать о Copilot в Bing.   

Операции и быстрое реагирование. Мы также используем Copilot в текущих процессах мониторинга и эксплуатации Bing для решения случаев, когда Copilot в Bing получает сигналы или получает отчет, указывающий на возможное неправильное использование или нарушение Условий использования или Кодекса поведения.  

Обратная связь, мониторинг и надзор. Интерфейс Copilot в Bing основан на существующих инструментах, которые позволяют пользователям отправлять отзывы и отчеты о проблемах, которые проверяются операционными группами Майкрософт. Операционные процессы Bing также расширились, чтобы обеспечить возможности в интерфейсе Bing, например, обновить страницу "Сообщить о проблеме ", чтобы включить новые типы контента, создаваемые пользователями с помощью модели.   

Наш подход к выявлению, измерению и устранению рисков будет продолжать развиваться по мере того, как мы узнаем больше, и мы уже вносим улучшения на основе отзывов, собранных в течение периода предварительной версии.     

Автоматическое обнаружение содержимого. Когда пользователи загружают изображения в рамках запроса в чате, Copilot в Bing развертывает средства для обнаружения изображений сексуальной эксплуатации и жестокого обращения с детьми (CSEAI), в первую очередь технологию сопоставления хэша PhotoDNA. Корпорация Майкрософт разработала PhotoDNA для поиска дубликатов известных CSEAI. Корпорация Майкрософт сообщает обо всех очевидных CSEAI в Национальный центр по делам пропавших без вести и эксплуатируемых детей (NCMEC), как того требует законодательство США. Когда пользователи отправляют файлы для анализа или обработки, Copilot развертывает автоматическое сканирование для обнаружения содержимого, которое может привести к рискам или неправильному использованию, например текста, который может относиться к незаконным действиям или вредоносному коду.

Защита конфиденциальности  

Давняя убежденность корпорации Майкрософт в том, что конфиденциальность является фундаментальным правом человека, является основой для каждого этапа разработки и развертывания Copilot в Bing. Наши обязательства по защите конфиденциальности всех пользователей, в том числе путем предоставления пользователям прозрачности и контроля над их данными, а также интеграции конфиденциальности путем минимизации данных и ограничения целей, являются основой для Компании Copilot в Bing. По мере развития нашего подхода к предоставлению Copilot в опыте генеративного ИИ Bing мы будем постоянно изучать, как лучше всего защитить конфиденциальность. Этот документ будет обновлен по мере того, как мы это делаем. Дополнительные сведения о том, как корпорация Майкрософт защищает конфиденциальность наших пользователей, см. в заявлении о конфиденциальности Майкрософт.  

В интерфейсе Copilot в Windows навыки Windows могут в рамках своих функциональных возможностей делиться сведениями о пользователе в беседе чата. Это зависит от утверждения пользователем, и запросы пользовательского интерфейса отображаются для подтверждения намерений пользователя, прежде чем пользователь будет предоставлен общий доступ к беседе чата.

Корпорация Майкрософт продолжает учитывать потребности детей и молодежи в рамках оценки рисков новых функций генеративного ИИ в Copilot в Bing. Все дочерние учетные записи Майкрософт, которые идентифицируют пользователя в возрасте до 13 лет или иным образом, указанных в местных законах, не могут войти в систему для доступа к полному новому интерфейсу Bing.   

Как описано выше, для всех пользователей мы реализовали меры предосторожности, которые устраняют потенциально опасное содержимое. В Copilot в Bing результаты задаются как в строгом режиме Bing SafeSearch, который имеет самый высокий уровень безопасности в поиске main Bing, что предотвращает доступ пользователей, в том числе пользователей-подростков, к потенциально опасному содержимому. В дополнение к информации, которую мы предоставили в этом документе и в наших часто задаваемых вопросах о функциях чата , дополнительные сведения о том, как работает Copilot в Bing, чтобы избежать реагирования с непредвиденным оскорбительным контентом в результатах поиска, можно найти здесь.  

Корпорация Майкрософт обязуется не предоставлять персонализированную рекламу, основанную на поведении в Интернете, для детей, дата рождения которых в учетной записи Майкрософт идентифицирует их в возрасте до 18 лет. Эта важная защита распространяется на рекламу в Copilot в функциях Bing. Пользователи могут видеть контекстную рекламу на основе запроса или запроса, используемого для взаимодействия с Bing.  

Чтобы раскрыть преобразующий потенциал генеративного ИИ, мы должны укрепить доверие к технологии, предоставив пользователям возможность понять, как используются их данные, и предоставить им значимый выбор и контроль над их данными. Copilot в Bing предназначен для того, чтобы приоритизировать человеческое агентство, предоставляя информацию о том, как продукт работает, а также его ограничения, а также путем расширения нашего надежного выбора потребителей и контроля на Copilot в функциях Bing.   

Заявление о конфиденциальности Майкрософт содержит сведения о наших прозрачных методах конфиденциальности для защиты наших клиентов, а также содержит сведения об элементах управления, которые предоставляют пользователям возможность просматривать свои персональные данные и управлять ими. Чтобы пользователи могли получить необходимую информацию при взаимодействии с новыми функциями Bing для общения, информация в продукте информирует пользователей о том, что они взаимодействуют с продуктом ИИ, и мы предоставляем ссылки на дополнительные вопросы и пояснения о том, как работают эти функции. Корпорация Майкрософт будет продолжать прислушиваться к отзывам пользователей и добавлять дополнительные сведения о функциях общения Bing, чтобы понять, как работает продукт.   

Корпорация Майкрософт также предоставляет своим пользователям надежные инструменты для осуществления своих прав на персональные данные. Для данных, собираемых Copilot в Bing, в том числе с помощью пользовательских запросов и запросов, панель мониторинга конфиденциальности Майкрософт предоставляет пользователям, прошедшим проверку подлинности (вошедшего в систему), средства для реализации их прав субъекта данных, в том числе путем предоставления пользователям возможности просматривать, экспортировать и удалять сохраненный журнал бесед. Корпорация Майкрософт продолжает получать отзывы о том, как они хотят управлять своим новым интерфейсом Bing, в том числе с помощью контекстного управления данными.   

Copilot в Bing также выполняет запросы в соответствии с европейским правом на забвение, следуя процессу, который корпорация Майкрософт разработала и усовершенствовала для традиционных функций поиска Bing. Здесь все пользователи могут сообщать о проблемах, связанных с созданным содержимым и ответами, и наши европейские пользователи могут использовать эту форму для отправки запросов на блокировку результатов поиска в Европе с правом на забвению.   

Copilot в Bing будет учитывать выбор конфиденциальности пользователей, включая те, которые были сделаны ранее в Bing, например согласие на сбор и использование данных, запрашиваемое с помощью баннеров файлов cookie и элементов управления, доступных на панели мониторинга конфиденциальности Майкрософт. Чтобы обеспечить самостоятельность пользователей и возможность принятия обоснованных решений, мы использовали наш внутренний процесс проверки, чтобы тщательно изучить, как выбор представляется пользователям. 

Помимо элементов управления, доступных на панели мониторинга конфиденциальности Майкрософт, которые позволяют пользователям просматривать, экспортировать и удалять журнал поиска, включая компоненты журнала чатов, пользователи, прошедшие проверку подлинности, которые включили функцию журнала чатов в продукте, имеют возможность просматривать, получать доступ и скачивать журнал чата с помощью элементов управления в продукте. Пользователи могут очистить определенные чаты из журнала чатов или полностью отключить функции журнала чатов в любое время, перейдя на страницу параметров Bing. Пользователи также могут выбрать, следует ли разрешить персонализации доступ к более специализированному интерфейсу с персонализированными ответами. Пользователи могут в любое время отказаться от персонализации в разделе Параметры чата на странице параметров Bing.  Очистка определенных чатов из журнала чата предотвращает их использование для персонализации.  
 
Дополнительные сведения об истории чата и персонализации см. в разделе Часто задаваемые вопросы о Bing в Copilot. 

Copilot в Bing был создан с учетом конфиденциальности, поэтому персональные данные собираются и используются только по мере необходимости и хранятся не дольше, чем это необходимо. Как упоминалось выше, функция visual Поиск в Copilot в Bing развертывает механизм, который размывает лица на изображениях во время отправки пользователями, чтобы изображения лиц не обрабатывались и не сохранялись. Дополнительные сведения о персональных данных, собираемых Bing, их использовании, а также о том, как они хранятся и удаляются, см. в Заявлении о конфиденциальности Майкрософт, в котором также содержатся сведения о новых функциях чата Bing.   

Copilot в Bing имеет политики хранения и удаления данных, которые помогают гарантировать, что персональные данные, собранные с помощью функций чата Bing, хранятся только до тех пор, пока это необходимо.   

Мы будем продолжать изучать и развивать наш подход к предоставлению Copilot в Bing, и по мере этого мы будем продолжать работать в разных дисциплинах, чтобы согласовать наши инновации ВИ с человеческими ценностями и основными правами, включая защиту молодых пользователей и конфиденциальность.   

Copilot с коммерческой защитой данных 

Copilot с коммерческой защитой данных, ранее известный как Bing Chat Enterprise ("BCE"), был выпущен корпорацией Майкрософт в бесплатной общедоступной предварительной версии в июле 2023 года в качестве бесплатной надстройки для некоторых клиентов M365. Copilot с коммерческой защитой данных — это улучшенный интерфейс поиска в Интернете для корпоративных пользователей. 

Как и в случае с Copilot в Bing, когда пользователь Copilot с коммерческой защитой данных вводит запрос в интерфейс, запрос, немедленная беседа, основные результаты поиска и метавыставка отправляются в качестве входных данных в LLM. Модель создает ответ, используя журнал запросов и мгновенных бесед для контекстуализации запроса, метавывывку для согласования ответов с принципами ИИ Майкрософт и ожиданиями пользователей, а также результаты поиска для получения ответов в существующем содержимом с высоким рейтингом из Интернета. Это работает так же, как и Copilot в Bing, как описано выше в этом документе, за исключением того, что Copilot с коммерческой защитой данных зависит только от журнала непосредственной беседы (не последнего журнала бесед), так как сохраненный журнал чата в настоящее время не поддерживается. Designer и Visual Поиск теперь доступны в этой версии. 

Как и другие трансформационные технологии, использование преимуществ ИИ не является безрисковый, и основная часть программы ответственного ИИ Майкрософт предназначена для выявления потенциальных рисков, измерения их склонности к возникновению и создания мер по устранению этих рисков. Опять же, приведенное выше описание усилий Корпорации Майкрософт по выявлению, измерению и снижению потенциальных рисков для Copilot в Bing также относится к этой версии, с некоторыми разъяснениями по устранению рисков, описанными ниже: 

Поэтапный выпуск, непрерывная оценка. Как и в случае с Copilot Bing, для Copilot с коммерческой защитой данных мы также приняли поэтапный подход к выпуску. 18 июля 2023 г. copilot с коммерческой защитой данных стал доступен в виде бесплатной предварительной версии для корпоративных клиентов с определенными учетными записями M365, которые можно включить для корпоративных конечных пользователей. Через тридцать (30) дней после уведомления подходящих корпоративных клиентов Copilot с коммерческой защитой данных стал "по умолчанию включен" для тех же клиентов. С тех пор copilot с коммерческой защитой данных также стал доступен для конкретных учетных записей M365 образовательных факультетов. Copilot с коммерческой защитой данных стал общедоступным для некоторых корпоративных клиентов с 1 декабря 2023 г. В будущем мы планируем расширить доступ к Copilot с коммерческой защитой данных для более Microsoft Entra ID пользователей.

Условия использования и правила поведения. Конечные пользователи Copilot с коммерческой защитой данных должны соблюдать условия использования конечным пользователем. Настоящие Условия использования информируют конечных пользователей о допустимом и недопустимом использовании и последствиях нарушения условий.  

Операции и быстрое реагирование. Мы также используем Copilot в текущих процессах мониторинга и эксплуатации Bing для решения случаев, когда Copilot с коммерческой защитой данных получает сигналы или получает отчет, указывающий на возможное неправильное использование или нарушение Условий использования конечным пользователем

Обратная связь, мониторинг и надзор. Copilot с коммерческой защитой данных использует те же инструменты, что и Copilot в Bing, чтобы пользователи отправляли отзывы и сообщали о проблемах, которые проверяются операционными группами Майкрософт. Copilot в операционных процессах Bing также расширился, чтобы обеспечить возможности в Copilot с коммерческой защитой данных, например, обновить страницу "Сообщить о проблеме", чтобы включить новые типы контента, создаваемые пользователями с помощью модели.  

Чтобы обеспечить пользователей информацией, необходимой при взаимодействии с Copilot с коммерческой защитой данных, в нижней части этого документа доступна документация по продукту, включая страницы часто задаваемых вопросов и подробнее. 

Запросы и ответы, созданные конечными пользователями в Copilot с коммерческой защитой данных, обрабатываются и хранятся в соответствии с корпоративными стандартами обработки данных. Предложение Copilot с коммерческой защитой данных в настоящее время доступно только для корпоративных клиентов и их взрослых пользователей, прошедших проверку подлинности, поэтому мы не ожидаем, что дети или молодые люди будут конечными пользователями Copilot с коммерческой защитой данных в настоящее время. Кроме того, Copilot с коммерческой защитой данных не предоставляет пользователям рекламу, ориентированную на поведение. Вместо этого все отображаемые объявления являются только контекстно релевантными объявлениями.  

Подробнее

Этот документ является частью более широких усилий корпорации Майкрософт по внедрению принципов ИИ на практике. Дополнительные сведения см. в разделе:

Подход Майкрософт к ответственному ИИ

Microsoft's Responsible AI Standard

Ресурсы ответственного ИИ Майкрософт  

Учебные курсы Microsoft Azure по ответственному ИИ  

Сведения об этом документе  

© 2023 г. Майкрософт. Все права защищены. Этот документ предоставляется "как есть" и только в информационных целях. Информация и представления, выраженные в этом документе, включая URL-адрес и другие ссылки на веб-сайты в Интернете, могут изменяться без уведомления. Вы несете риск его использования. Некоторые примеры предназначены только для иллюстрации и являются вымышленными. Никакая реальная связь не предполагается или не выводится.  

Нужна дополнительная помощь?

Нужны дополнительные параметры?

Изучите преимущества подписки, просмотрите учебные курсы, узнайте, как защитить свое устройство и т. д.

В сообществах можно задавать вопросы и отвечать на них, отправлять отзывы и консультироваться с экспертами разных профилей.

Были ли сведения полезными?

Насколько вы удовлетворены качеством перевода?
Что повлияло на вашу оценку?
После нажатия кнопки "Отправить" ваш отзыв будет использован для улучшения продуктов и служб Майкрософт. Эти данные будут доступны для сбора ИТ-администратору. Заявление о конфиденциальности.

Спасибо за ваш отзыв!

×