Последнее обновление: 22 октября 2025 г.

Что такое заметка о прозрачности?

Система ИИ включает в себя не только технологию, но и людей, которые будут ее использовать, людей, на которых она будет влиять, и среду, в которой она развертывается. Примечания майкрософт по прозрачности помогут вам понять, как работает технология ИИ, лежащая в основе Copilot, выбор, который мы сделали, влияющие на производительность и поведение системы, а также важность думать о системе в целом, чтобы пользователи Copilot могли контролировать свой собственный опыт и понять, какие шаги мы принимаем для предоставления безопасного и безопасного продукта.

Заметки майкрософт о прозрачности являются частью более широких усилий корпорации Майкрософт по внедрению принципов ИИ на практике. Дополнительные сведения см. в статье Принципы ИИ Майкрософт

Основы Microsoft Copilot

Введение

Copilot — это интерфейс на основе ИИ, который поможет предоставить пользователям информацию, которую они ищут, готовясь к поддержке пользователей в ответе на широкий спектр вопросов, независимо от ситуации или темы. Обновленный Copilot выходит за рамки ответа на основные запросы получения информации и фокусируется на создании содержимого, чтобы предложить пользователям более упреждающую поддержку при выполнении задач. У нас есть растущее понимание того, как ИИ может помочь людям учиться, находить и быть более творческими, что потребовало от нас создания другого типа продукта. Новый интерфейс Copilot стремится стать новым типом интерфейса, который является открытым и динамичным для более эффективного удовлетворения потребностей пользователей более интуитивно понятным образом.

Корпорация Майкрософт серьезно относится к нашим обязательствам по ответственному ИИ. Обновленный интерфейс Copilot был разработан в соответствии с принципами ИИ Корпорации Майкрософт, ответственнымИ ИИ Standard Корпорации Майкрософт, а также в сотрудничестве с ответственными экспертами по искусственному интеллекту в компании, включая Отдел ответственного ИИ Корпорации Майкрософт, наши инженерные команды, Microsoft Research и Aether. Дополнительные сведения об ответственном ИИ в Корпорации Майкрософт см. здесь.  

В этом документе описывается наш подход к ответственному использованию ИИ для Copilot. В преддверии выпуска мы использовали методы корпорации Майкрософт для сопоставления, измерения и управления потенциальными рисками и неправильным использованием системы, а также для обеспечения ее преимуществ для пользователей. По мере того как мы продолжаем развивать Copilot, мы также продолжаем учиться и совершенствовать наши ответственные усилия по ИИ. Этот документ будет периодически обновляться для информирования о наших изменяющихся процессах и методах.  

Ключевые термины

Классификаторы    Модели машинного обучения, помогающие сортировать данные по помеченным классам или категориям информации. В обновленном интерфейсе Copilot одним из способов использования классификаторов является обнаружение потенциально опасного содержимого, отправленного пользователями или созданного системой, чтобы предотвратить создание этого содержимого и злоупотребление системой. 

Грунтовка    Для определенных бесед, в которых пользователи ищут информацию, Copilot используется в результатах поиска в Интернете. Это означает, что Copilot центрирует свой ответ на высокоранговом контенте из Интернета и предоставляет гиперссылки после созданных текстовых ответов. Обратите внимание, что в настоящее время запросы пользователей в голосовом режиме не активируют веб-поиск, поэтому ответы не будут содержать ссылки.

Большие языковые модели (LLM)    Большие языковые модели (LLM) в этом контексте — это модели ИИ, которые обучаются на больших объемах текстовых данных для прогнозирования слов в последовательностях. LLM могут выполнять различные задачи, такие как создание текста, формирование сводных данных, перевод, классификация и многое другое.

Уменьшение отрицательных последствий    Метод или сочетание методов, предназначенных для снижения потенциальных рисков, которые могут возникнуть в результате использования функций ИИ в Copilot.

Многомодальные модели (MMM)    Многомодальные модели (MMM) — это модели ИИ, которые обучаются на различных типах данных, таких как текст, изображения или звук. Эти модели могут выполнять различные задачи, такие как написание текста, описание изображений, распознавание речи и поиск информации для разных типов данных.

Запросы    Входные данные в виде текста, изображений и (или) звука, которые пользователь отправляет в Copilot для взаимодействия с функциями ИИ в Copilot.

Красное объединение    Методы, используемые экспертами для оценки ограничений и уязвимостей системы и для проверки эффективности запланированных мер по устранению рисков. Тестирование красной команды включает в себя тестировщиков, внедряющих как доброкачественных, так и состязающих лиц для выявления потенциальных рисков и отличаются от систематического измерения рисков.

Ответы    Текст, изображения или звук, которые Copilot выводит в ответ на запрос или в составе взад и вперед с пользователем. Синонимы для "ответ" включают "завершение", "поколение" и "ответ".

Малые языковые модели (SLM)    Малые языковые модели (SLM) в этом контексте — это модели ИИ, которые обучаются на небольших, более сфокусированных объемах данных по сравнению с большими языковыми моделями. Несмотря на меньший размер, SSP могут выполнять различные задачи, такие как создание текста, формирование сводных данных, перевод и классификация. Хотя они могут не соответствовать обширным возможностям LLM, SSP часто более ресурсоемки и могут быть очень эффективными для конкретных целевых приложений. 

Системное сообщение    Системное сообщение (иногда называемое "метавывым") — это программа, которая служит для руководства поведением системы. Части системного сообщения помогают согласовать поведение системы с принципами ИИ Майкрософт и ожиданиями пользователей. Например, системное сообщение может содержать такую строку, как "не предоставлять информацию или создавать содержимое, которое может нанести физический, эмоциональный или финансовый ущерб". 

Возможности

Поведение системы

С помощью Copilot мы разработали инновационный подход, чтобы предоставить пользователям более персонализированный интерфейс ИИ для привлечения пользователей, который может помочь пользователям с различными задачами. Этот инновационный подход использует различные передовые технологии, такие как языковые и мультимодальные модели от Майкрософт, OpenAI и других разработчиков моделей. Мы работали над реализацией методов безопасности для моделей, лежащих в основе нового опыта Copilot до общедоступного выпуска, чтобы разработать настраиваемый набор возможностей и поведения, которые обеспечивают расширенный интерфейс Copilot. В обновленном Copilot пользователи могут отправлять подсказки в естественном языке текстом или голосом. Ответы предоставляются пользователям в нескольких разных форматах, таких как ответы чата в текстовой форме (с традиционными ссылками на веб-содержимое по мере необходимости) и изображениями (если в запросе был сделан запрос на изображение). Если пользователи отправляют запросы естественным голосом в режиме copilot Voice, они будут получать звуковые ответы. 

Когда пользователь вводит запрос в Copilot, запрос, журнал бесед и системное сообщение отправляются через несколько входных классификаторов, чтобы отфильтровать вредоносное или нежелательное содержимое. Это важный первый шаг для повышения производительности модели и устранения ситуаций, в которых пользователи могут попытаться предложить модель таким образом, который может быть небезопасным. После того как запрос проходит через входные классификаторы, он отправляется в SLM, чтобы определить, требуется ли запрос заземления данных из Интернета и какая языковая модель должна отвечать на запрос. Все модели создают ответ с помощью запроса пользователя и журнала последних бесед для контекстуализации запроса, системного сообщения для согласования ответов с принципами ИИ Майкрософт и ожиданиями пользователей, а при необходимости — согласования ответов с результатами поиска с ответами в существующем контенте с высоким рейтингом из Интернета.  

Ответы предоставляются пользователям в нескольких разных форматах, таких как ответы в чате в текстовой форме, традиционные ссылки на веб-содержимое, изображения и звуковые ответы. Когда ответы предоставляются в текстовой форме, а ответы закрепляются на данных из Интернета, выходные данные содержат ссылки с гиперссылками, перечисленные под текстом, чтобы пользователи могли получить доступ к веб-сайтам, которые использовались для получения ответа, и узнать больше о теме. Copilot также может выполнять код для выполнения сложных вычислений и создания графов. Copilot может хранить конкретные факты, которые пользователи просят запомнить, что позволяет создавать более релевантные ответы и предложения на основе этого контекста. Copilot также может удалять сохраненные факты, когда пользователи просят забыть их явным образом.

Copilot также помогает пользователям создавать новые истории, стихи, тексты песен и изображения. Когда Copilot обнаруживает намерение пользователя создать творческое содержимое (например, запрос пользователя, начинающийся с "написать мне ..."), система в большинстве случаев создает содержимое, реагирующее на запрос пользователя. Аналогичным образом, когда Copilot обнаруживает намерение пользователя создать изображение (например, запрос пользователя, начинающийся с "нарисовать меня ..." ), Copilot в большинстве случаев создает изображение, реагирующее на запрос пользователя. Когда Copilot обнаруживает намерение пользователя изменить отправленное изображение (например, запрос пользователя, начинающийся с "добавить..."), Copilot в большинстве случаев изменяет изображение, соответствующее запросу пользователя. Copilot может не отвечать творческим контентом, если запрос пользователя содержит определенные термины, которые могут привести к проблемным содержимому.

Пользователи с учетными записями Майкрософт (MSA) теперь также могут подписаться на Copilot Pro, которая предлагает расширенные возможности, включая ускорение производительности, использование возможностей Copilot Voice в течение более длительных периодов времени, а в некоторых случаях и доступ к новым экспериментальным функциям. Copilot Pro в настоящее время доступна в ограниченном числе стран, и мы планируем в ближайшее время сделать Copilot Pro доступными на других рынках.

Предполагаемое поведение в области безопасности

Наша цель для Copilot — быть полезным для пользователей. Используя рекомендации из других продуктов и служб искусственного интеллекта Майкрософт, мы стремимся ограничить copilot созданием проблемного содержимого и повысить вероятность безопасного и положительного взаимодействия с пользователем. Хотя мы приняли меры по снижению рисков, модели генеративного ИИ, такие как модели Copilot, являются вероятностными и могут совершать ошибки, а это означает, что устранение рисков может иногда не блокировать вредоносные запросы пользователей или ответы, созданные ИИ. Если во время использования Copilot вы столкнулись с вредоносным или непредвиденным контентом, сообщите нам, предоставив отзыв, чтобы мы могли продолжать улучшать взаимодействие.

Варианты использования

Предполагаемое использование

Copilot предназначен для поддержки пользователей в ответе на широкий спектр вопросов, независимо от ситуации или темы. Пользователи могут взаимодействовать с Copilot с помощью входных данных текста, изображений и аудио, где взаимодействие больше похоже на естественные беседы с системой ИИ. Кроме того, если пользователи взаимодействуют с Copilot с помощью текста, чтобы найти конкретную информацию по темам, где Copilot может потребоваться больше информации для получения более точного ответа, интерфейс предназначен для подключения пользователей с соответствующими результатами поиска, просмотра результатов из Интернета и суммирования информации, которую ищут пользователи. В Copilot пользователи могут: 

  • Суммирование сведений в режиме реального времени при чате с помощью текста.    Когда пользователи взаимодействуют с Copilot с помощью текста, система будет выполнять веб-поиск, если ей требуется дополнительная информация, и будет использовать верхние результаты веб-поиска для создания сводки информации для представления пользователям. Эти сводки включают ссылки на веб-страницы, чтобы помочь пользователям увидеть и легко получить доступ к источникам результатов поиска, которые помогли понять сводку Copilot. Пользователи могут щелкнуть эти ссылки, чтобы перейти непосредственно к источнику, если они хотят узнать больше.

  • Общаться с системой ИИ с помощью текста.    Пользователи могут общаться с Copilot с помощью текстовых сообщений и задавать дополнительные вопросы, чтобы найти новую информацию и получить поддержку по широкому спектру тем.

  • Взаимодействие с ИИ с помощью голоса и внешнего вида.    Copilot может не только принимать входные данные звука, но и создавать звуковые выходные данные в одном из четырех голосов, выбранных пользователями, и представлять визуальный вид для обогащения взаимодействия. Возможности аудио-аудио и внешнего вида позволяют пользователям взаимодействовать с Copilot более естественным и гибким образом.

  • Получение удобоваемого содержимого новостей.    Пользователи могут использовать Copilot для получения сводки новостей, погоды и других обновлений на основе выбранных тематических областей с помощью функции Новости дня от Copilot и прослушивания этих брифингов в формате подкаста. Эта функция будет извлекать содержимое из авторизованных источников, имеющих соглашения с корпорацией Майкрософт.

  • Получите помощь в создании новых идей.    Каждый раз, когда пользователи взаимодействуют с copilot, они увидят набор карточек, которые они могут щелкнуть, чтобы начать беседу с Copilot о полезных и интересных темах. Если пользователи взаимодействовали с другими службами майкрософт для потребителей, карточки будут персонализированы в соответствии с нашими политиками конфиденциальности. Со временем карточки в Copilot могут быть персонализированы на основе истории чата пользователя. Пользователи могут отказаться от персонализации в любое время в параметрах.

  • Создание творческого содержимого.    В чате с Copilot пользователи могут создавать новые стихи, шутки, рассказы, изображения и другое содержимое с помощью интерфейса Copilot. Copilot также может редактировать изображения, отправленные пользователями по запросу.

  • Выполнение задач на Android.Пользователи могут взаимодействовать с Copilot через платформу Android через голос для выполнения определенных задач. Эти задачи — настройка таймеров и будильников, совершение телефонных звонков, отправка SMS-сообщений и заказ Uber. Перед выполнением задач пользователи должны подтвердить телефонный звонок, SMS-сообщение и заказ Uber.

  • Помощь в исследованиях.  Copilot может выполнять исследовательские задачи, просматривая подробные ресурсы, предлагая подробные разбивки тем и ссылки на источники, чтобы помочь пользователям выйти за рамки быстрых ответов на более сложные запросы. Copilot может заблаговременно создавать персонализированные предложения исследований для пользователей на основе таких вещей, как прошлые исследовательские запросы и память Copilot. Пользователи могут отказаться от персонализации или уведомлений в любое время в параметрах.

  • Исследуйте мир с помощью Зрение Copilot. Copilot может просматривать ваш экран или канал мобильной камеры и использовать свой голос, чтобы отвечать на вопросы и взаимодействовать с вами. Copilot может мгновенно сканировать, анализировать и предлагать аналитические сведения и предложения в режиме реального времени, чтобы помочь вам в работе, просмотре или изучении мира. Зрение Copilot доступно в Edge, Windows, iOS и Android.

  • Получение сведений с помощью соединителей.С вашего согласия Copilot может выполнять поиск облачных файлов и взаимодействовать с ними с помощью естественного языка. Copilot может получать сообщения электронной почты, искать контакты и проверка встречи в календаре из учетных записей Microsoft Outlook и Google Gmail. 

  • Совместная работа с группами Copilot. По приглашению вы можете присоединиться или создать групповые беседы с Copilot для совместной работы над совместными проектами и идеями.

Рекомендации при выборе других вариантов использования

Мы рекомендуем пользователям просматривать все содержимое, прежде чем принимать решения или действовать на основе ответов Copilot, так как ИИ может делать ошибки. Кроме того, существуют определенные сценарии, которые мы рекомендуем избегать или которые идут в соответствии с нашими Условиями использования. Например, корпорация Майкрософт не разрешает использовать Copilot в связи с незаконной деятельностью или для каких-либо целей, направленных на содействие незаконной деятельности.  

Ограничения

Языковые, графические и звуковые модели, которые в рамках опыта Copilot могут включать обучающие данные, которые могут отражать социальные предубеждения, что, в свою очередь, может привести к тому, что Copilot будет вести себя несправедливо, ненадежно или оскорбительно. Несмотря на интенсивное обучение модели и тонкую настройку безопасности, а также реализацию ответственных элементов управления ИИ и систем безопасности, которые мы размещаем на обучающих данных, запросах пользователей и выходных данных модели, службы на основе ИИ являются ошибочной и вероятностной. Это усложняет комплексную блокировку всего неуместного содержимого, что приводит к рискам, которые могут привести к потенциальным предубеждениям, стереотипам, необоснованным или другим видам вреда, который может появиться в содержимом, созданном ИИ. Некоторые из способов, которыми эти ограничения могут проявляться в интерфейсе Copilot, перечислены здесь. 

  • Стереотипы: Опыт Copilot может потенциально укрепить стереотипы. Например, при переводе "Он медсестра" и "Она врач" на язык без пола, например турецкий, а затем обратно на английский, Copilot может непреднамеренно дать стереотипные (и неправильные) результаты "Она медсестра" и "Он врач". Другим примером является создание изображения на основе запроса "Дети без отца", система может создавать изображения детей только из одной расы или этнической принадлежности, усиливая вредные стереотипы, которые могут существовать в общедоступных изображениях, используемых для обучения базовых моделей. Copilot также может укрепить стереотипы, основанные на содержимом входного изображения пользователя, полагаясь на компоненты изображения и делая предположения, которые могут быть неверными. Мы реализовали меры по устранению рисков, чтобы снизить риск содержимого, содержащего оскорбительные стереотипы, включая классификаторы входных и выходных данных, точно настроенные модели и системные сообщения.

  • Перепредставленность и недопредставленность: Copilot может потенциально чрезмерно или недостаточно представлять группы людей или даже не представлять их вообще в своих ответах. Например, если текстовые запросы, содержащие слово "гей", обнаруживаются как потенциально опасные или оскорбительные, это может привести к недопредставленности законных поколений о сообществе ЛГБТКИА+. Помимо включения классификаторов входных и выходных данных, точно настроенных моделей, а также системных сообщений, мы используем быстрое обогащение в Designer в качестве одного из нескольких способов устранения рисков, связанных с содержимым, которое чрезмерно или недостаточно представляет группы людей.

  • Неприемлемое или оскорбительное содержимое. Опыт Copilot может потенциально создавать другие типы неуместного или оскорбительного содержимого. Примеры включают возможность создания содержимого в одном модале (например, аудио), который не подходит в контексте запроса или при сравнении с теми же выходными данными в другом модале (например, текст). Другие примеры включают изображения, созданные ИИ, которые потенциально содержат вредные артефакты, такие как символы ненависти, содержимое, связанное с оспариваемыми, спорными или идеологически поляризующими темами, а также материалы с сексуальными обвинениями, которые уклоняются от фильтров контента, связанных с сексуальными отношениями. Мы ввели меры по устранению рисков поколений, содержащих неприемлемое или оскорбительное содержимое, например классификаторы входных и выходных данных, точно настроенные модели и системные сообщения.

  • Надежность информации. В то время как Copilot стремится реагировать с помощью надежных источников, где это необходимо, ИИ может делать ошибки. Это может потенциально создать бессмысленное содержимое или создать содержимое, которое может показаться разумным, но фактически неточным. Даже при получении ответов из высоконадежных веб-данных ответы могут искажать это содержимое таким образом, чтобы они не были полностью точными или надежными. Мы напоминаем пользователям через пользовательский интерфейс и в такой документации, как эта, что Copilot может делать ошибки. Мы также продолжаем обучать пользователей ограничениям ИИ, например поощрять их к двойному проверка факты, прежде чем принимать решения или действовать на основе ответов Copilot. Когда пользователи взаимодействуют с Copilot с помощью текста, он будет пытаться заземлиться в высококачественных веб-данных, чтобы снизить риск того, что поколения будут необоснованными.

  • Многоязычная производительность: могут быть различия в производительности на разных языках, при этом английский язык лучше всего работает на момент выпуска обновленного Copilot. Повышение производительности между языками является ключевой областью инвестиций, и последние модели привели к повышению производительности.

  • Ограничения звука. Звуковые модели могут вводить другие ограничения. В целом, качество акустического ввода речи, неречевого шума, словаря, акцентов и ошибок вставки также может повлиять на то, будет ли Copilot обрабатывать и реагировать на звуковые данные пользователя удовлетворительно. Кроме того, так как запросы пользователей при использовании Copilot Voice не активируют веб-поиск, Copilot может не реагировать на текущие события в голосовом режиме.

  • Зависимость от подключения к Интернету. Обновленный интерфейс Copilot зависит от подключения к Интернету для работы. Перебои в подключении могут повлиять на доступность и производительность службы.

Производительность системы

Во многих системах ИИ производительность часто определяется в зависимости от точности (т. е. частоты того, как часто система ИИ предлагает правильный прогноз или выходные данные). С Copilot мы сосредоточены на Copilot как на помощник на основе ИИ, которая отражает предпочтения пользователя. Таким образом, два разных пользователя могут смотреть на одни и те же выходные данные и иметь разные мнения о том, насколько это полезно или релевантно для их уникальной ситуации и ожиданий. Это означает, что производительность этих систем должна определяться более гибко. Мы широко рассматриваем производительность как то, что приложение работает так, как ожидается пользователям.

Рекомендации по повышению производительности системы 

Взаимодействуйте с интерфейсом, используя естественный, разговорный язык.    Взаимодействие с Copilot удобным для пользователя способом является ключом к улучшению результатов благодаря взаимодействию. Подобно внедрению методов, помогающих людям эффективно общаться в повседневной жизни, взаимодействие с Copilot в качестве помощник на основе ИИ с помощью знакомого пользователю текста или речи может помочь получить лучшие результаты.

Взаимодействие с пользователем и внедрение.    Эффективное использование Copilot требует от пользователей понимания его возможностей и ограничений. Существует кривая обучения, и пользователи могут ссылаться на различные ресурсы Copilot (например, на этот документ и вопросы и ответы о Copilot), чтобы эффективно взаимодействовать со службой и получать преимущества от нее.

Сопоставление, измерение рисков и управление ими

Как и другие трансформационные технологии, использование преимуществ ИИ не является безрисковых, и основная часть программы ответственного ИИ Майкрософт предназначена для выявления и сопоставления потенциальных рисков, измерения этих рисков и управления ими путем создания мер по устранению рисков и постоянного улучшения Copilot с течением времени. В разделах ниже описан наш итеративный подход к сопоставлению, измерению и управлению потенциальными рисками.

Карта. Тщательное планирование и состязательное тестирование перед развертыванием, например красное объединение, помогает нам сопоставлять потенциальные риски. Базовые модели, лежащие в основе опыта Copilot, прошли красное командное тестирование от тестировщиков, которые представляют мультидисциплинарные перспективы в соответствующих тематических областях. Это тестирование было разработано для оценки того, как новейшие технологии будут работать как с применением, так и без каких-либо дополнительных мер предосторожности, применяемых к ней. Цель этих упражнений на уровне модели заключается в том, чтобы произвести вредные меры реагирования, выявить потенциальные пути для неправильного использования, а также выявить возможности и ограничения.

Прежде чем сделать интерфейс Copilot общедоступным в ограниченной предварительной версии, мы также провели красное объединение на уровне приложения, чтобы оценить недостатки и уязвимости Copilot. Этот процесс помог нам лучше понять, как система может быть использована различными пользователями, и помогли нам улучшить наши меры по устранению рисков.

Мера. В дополнение к оценке Copilot в соответствии с нашими существующими оценками безопасности использование описанного выше красного объединения помогло нам разработать оценки и метрики ответственного ИИ, соответствующие выявленным потенциальным рискам, таким как джейлбрейки, вредное содержимое и неосвоенованное содержимое.

Мы собрали данные беседы, нацеленные на эти риски, используя сочетание людей-участников и конвейера автоматического создания беседы. Затем каждое вычисление оценивается пулом обученных людей аннотаторов или автоматическим конвейером заметок. При каждом изменении продукта, обновлении существующих мер по устранению рисков или предложении новых мер по устранению рисков мы обновляем конвейеры оценки, чтобы оценить производительность продукта и метрики ответственного использования ИИ. Эти конвейеры контекста автоматической оценки представляют собой сочетание собранных бесед с людьми-оценщиками и искусственных бесед, созданных с помощью LLM, которым предлагается протестировать политики состязательно. Каждая из этих оценок безопасности автоматически оценивается с помощью LLM. Для недавно разработанных оценок каждая оценка сначала оценивается людьми, которые читают текстовое содержимое или прослушивают звуковые данные, а затем преобразуются в автоматические оценки на основе LLM.

Предполагаемое поведение наших моделей в сочетании с конвейерами оценки (как человеческими, так и автоматизированными) позволяет нам быстро измерять потенциальные риски в большом масштабе. По мере выявления новых проблем с течением времени мы продолжаем расширять наборы измерений для оценки дополнительных рисков. 

Управление. Так как мы определили потенциальные риски и неправильное использование с помощью красного объединения и измерили их с помощью описанных выше подходов, мы разработали дополнительные меры по устранению рисков, которые относятся к опыту Copilot. Ниже описаны некоторые из этих мер. Мы продолжим мониторинг опыта Copilot для повышения производительности продукта и нашего подхода к снижению рисков. 

  • Поэтапные планы выпуска и постоянная оценка.    Мы стремимся постоянно учиться и совершенствовать наш подход к ответственному ИИ по мере развития наших технологий и поведения пользователей. Наша стратегия добавочного выпуска была основной частью того, как мы безопасно переносим наши технологии из лаборатории в мир, и мы привержены преднамеренному, вдумчивый процесс, чтобы обеспечить преимущества опыта Copilot. Мы регулярно вносим изменения в Copilot для повышения производительности продукта и существующих мер по устранению рисков, а также реализуем новые меры по устранению рисков в ответ на наши знания.

  • Использование классификаторов и системного сообщения для снижения потенциальных рисков или неправильного использования.    В ответ на запросы пользователей LLM могут создавать проблемное содержимое. Мы рассмотрели типы содержимого, которые мы пытаемся ограничить, в разделах Поведение системы и ограничения выше. Классификаторы и системное сообщение являются двумя примерами мер по устранению рисков, которые были реализованы в Copilot для снижения риска таких типов содержимого. Классификаторы классифицируют текст, чтобы помечать потенциально опасное содержимое в запросах пользователя или созданных ответах. Мы также используем существующие рекомендации по использованию системных сообщений, которые включают в себя предоставление инструкций модели для согласования ее поведения с принципами ИИ Майкрософт и ожиданиями пользователей.

  • Согласие на отправку изображений Copilot.    Когда пользователь впервые загружает изображение с лицами в Copilot, ему будет предложено предоставить свое согласие на передачу биометрических данных в Copilot. Если пользователь не согласиться, изображение не будет отправлено в Copilot. Все изображения, независимо от того, содержат ли они лица, удаляются в течение 30 дней после окончания беседы.

  • Раскрытие ИИ.    Copilot также предназначен для информирования людей о том, что они взаимодействуют с системой ИИ. Когда пользователи взаимодействуют с Copilot, мы предлагаем различные точки соприкосновения, предназначенные для того, чтобы помочь им понять возможности системы, сообщить им, что Copilot работает на основе ИИ, и сообщить об ограничениях. Этот интерфейс разработан таким образом, чтобы помочь пользователям получить максимум от Copilot и минимизировать риск чрезмерной зависимости. Раскрытие информации также помогает пользователям лучше понять Copilot и их взаимодействие с ним.

  • Происхождение средств массовой информации.    Когда Copilot создает изображение, мы включили функцию "Учетные данные содержимого", которая использует криптографические методы для пометки источника или "происхождения" всех созданных ИИ образов, созданных с помощью Copilot. Эта технология использует стандарты, установленные Коалицией за содержимое и подлинность (C2PA), чтобы добавить дополнительный уровень доверия и прозрачности для изображений, созданных ИИ.

  • Автоматическое обнаружение содержимого.    Когда пользователи отправляют изображения в рамках запроса чата, Copilot развертывает средства для обнаружения изображений сексуальной эксплуатации и жестокого обращения с детьми (CSEAI). Корпорация Майкрософт сообщает обо всех очевидных CSEAI в Национальный центр по делам пропавших без вести и эксплуатируемых детей (NCMEC), как того требует законодательство США. Когда пользователи отправляют файлы для анализа или обработки, Copilot развертывает автоматическое сканирование для обнаружения содержимого, которое может привести к рискам или неправильному использованию, например текста, который может относиться к незаконным действиям или вредоносному коду.

  • Условия использования и правила поведения.    Пользователи должны соблюдать применимые Условия использования и Правила поведенияСоглашения о предоставлении услуг Майкрософт, а также Заявление о конфиденциальности Майкрософт, которое, среди прочего, информирует их о допустимом и недопустимом использовании и последствиях нарушения условий. Условия использования также предоставляют дополнительные сведения о раскрытии информации для пользователей и служат справочными сведениями о Copilot. Пользователи, которые совершают серьезные или неоднократные нарушения, могут быть временно или окончательно приостановлены в службе.

  • Обратная связь, мониторинг и надзор.    Интерфейс Copilot основан на существующих инструментах, которые позволяют пользователям отправлять отзывы, которые проверяются операционными группами Майкрософт. Кроме того, наш подход к сопоставлению, измерению и управлению рисками будет продолжать развиваться по мере того, как мы узнаем больше, и мы уже вносим улучшения на основе отзывов, собранных в период предварительной версии.

Дополнительные сведения об ответственном ИИ

Отчет о прозрачности ответственного ИИ (Майкрософт)

Принципы ИИ Майкрософт

Ресурсы ответственного ИИ Майкрософт

Учебные курсы Microsoft Azure по ответственному ИИ

Дополнительные сведения о Microsoft Copilot

Microsoft Copilot часто задаваемые вопросы

Сведения об этом документе

© 2024 Корпорация Майкрософт. Все права защищены. Этот документ предоставляется "как есть" и только в информационных целях. Информация и представления, выраженные в этом документе, включая URL-адрес и другие ссылки на веб-сайты в Интернете, могут изменяться без уведомления. Вы несете риск, связанный с его использованием. Некоторые примеры предназначены только для иллюстрации и являются вымышленными. Никакая реальная связь не предполагается или не выводится.

Этот документ не предназначен для предоставления юридических консультаций и не должен рассматриваться как предоставление юридических консультаций. Юрисдикция, в которой вы работаете, может иметь различные нормативные или юридические требования, которые применяются к вашей системе ИИ. Проконсультируйтесь со специалистом по юридическим вопросам, если вы не уверены в законах или правилах, которые могут применяться к вашей системе, особенно если вы считаете, что они могут повлиять на эти рекомендации. Имейте в виду, что не все эти рекомендации и ресурсы подходят для каждого сценария, и наоборот, эти рекомендации и ресурсы могут оказаться недостаточными для некоторых сценариев.

Опубликовано: 01.10.2024

Последнее обновление: 01.10.2024

Нужна дополнительная помощь?

Нужны дополнительные параметры?

Изучите преимущества подписки, просмотрите учебные курсы, узнайте, как защитить свое устройство и т. д.