Останнє оновлення: травень 2024 р.
Основні відомості про Copilot у Bing
Copilot у Bing Microsoft Copilot. Ознайомтеся з нашим підходом до відповідального ШІ в документації тут: Прозорість Примітка для Microsoft Copilot.
Вступ
У лютому 2023 року корпорація Майкрософт запустила нову службу Bing – розширений веб-пошук за допомогою AI. Він підтримує користувачів, підсумовуючи результати пошуку в Інтернеті та забезпечуючи чат. Користувачі також можуть генерувати творчий контент, наприклад вірші, жарти, історії та, з Творець зображень Bing, зображення. Новий Bing, розширений за технологією AI, працює на різних передових технологіях від Microsoft і OpenAI, включаючи GPT, найсучаснішу велику мовну модель (LLM) і DALL-E, глибоку модель навчання для створення цифрових зображень з описів природної мови, як з OpenAI. Ми працювали з обома моделями протягом декількох місяців до загальнодоступного випуску, щоб розробити настроюваний набір можливостей і методів, щоб приєднатися до цієї передової технології AI та пошуку в Інтернеті в новій службі Bing. У листопаді 2023 року корпорація Майкрософт перейменувала нову службу Bing на Copilot у Bing.
У корпорації Майкрософт ми серйозно ставимося до наших зобов'язань щодо відповідального за ШІ. Copilot у Bing досвід розроблено відповідно до принципів AI корпорації Майкрософт, Відповідального стандарту AI корпорації Майкрософт і в партнерстві з відповідальними експертами зі ШІ в усій компанії, зокрема з Microsoft Office відповідального ШІ, наших інженерних команд, Microsoft Research і Aether. Ви можете дізнатися більше про відповідальний ШІ в корпорації Майкрософт тут.
У цьому документі описується наш підхід до відповідального ШІ за Copilot у Bing. Напередодні випуску ми прийняли найсучасніші методи для виявлення, вимірювання та зменшення потенційних ризиків і зловживання системою, а також для забезпечення її переваг для користувачів. Оскільки ми продовжуємо розвиватися Copilot у Bing з моменту першого випуску, ми також продовжуємо вчитися і покращувати наші відповідальні зусилля з ШІ. Цей документ періодично оновлюватиметься, щоб повідомити наші процеси та методи, що розвиваються.
Ключові терміни
Copilot у Bing – це розширена функція пошуку в Інтернеті за допомогою ШІ. Оскільки вона працює на потужній, новій технології, ми починаємо з визначення деяких ключових термінів.
Моделі машинного навчання, які допомагають сортувати дані за позначеними класами або категоріями інформації. У Copilot у Bing один зі способів використання класифікаторів – виявити потенційно небезпечний вміст, надісланий користувачами або створений системою, щоб зменшити покоління цього вмісту та неналежне використання або зловживання системою.
Copilot у Bing обґрунтовано в результатах пошуку в Інтернеті, коли користувачі шукають інформацію. Це означає, що ми відцентруємо відповідь, надану запиту користувача, або запит на вміст з Інтернету, і надаємо посилання на веб-сайти, щоб користувачі могли дізнатися більше. Bing оцінює вміст пошуку в Інтернеті за допомогою таких функцій, як актуальність, якість і довіра, а також свіжість. Ми більш детально описуємо ці поняття в статті Як Bing доставляє результати пошуку (див. розділ "Якість і довіра" в розділі "Як Bing рангує результати пошуку").
Ми вважаємо обґрунтовані відповіді від Copilot у Bing, у яких інструкції підтримуються відомостями, що містяться в джерелах вводу, наприклад результатами пошуку в Інтернеті із запиту або запитом, база знань перевіреної фактом інформації Bing, а також чатом, нещодавнім журналом розмов із чату. Відповіді без заземлення – це ті відповіді, у яких інструкція не заземлюється в цих джерелах вводу.
Великі мовні моделі (LLMs) у цьому контексті – це моделі ШІ, які навчаються на великих обсягах текстових даних для прогнозування слів послідовно. LLMs здатні виконувати різноманітні завдання, наприклад створення тексту, зведення, переклад, класифікацію тощо.
Метапромпт – це програма, яка служить для керівництва поведінкою системи. Частини метапромпту допомагають узгодити поведінку системи з принципами AI Microsoft і очікуваннями користувачів. Наприклад, метапромпт може містити таку лінію, як "спілкування мовою вибору користувача".
Метод або поєднання методів, призначених для зниження потенційних ризиків, які можуть виникнути внаслідок використання функцій, керованих ШІ, у Copilot у Bing.
Текстові, голосові, зображення та/або інші увімкнуті запити, які користувач надсилає до Bing як вхідні дані в модель, яка живить нові генеративні можливості на основі AI в Bing. Наприклад, користувач може ввести такий запит:
"Я планую поїздку на нашу річницю у вересні. Які місця ми можемо відправитися в межах 3-годинного рейсу з Лондона Хітроу?”
Текст, який користувач надсилає до служби Bing із рядка пошуку для пошуку в Інтернеті. У цьому документі ми відрізняємо запит (для пошуку в Інтернеті) від запиту (для генеративних можливостей на основі AI в Bing). Наприклад, користувач може ввести такий запит для пошуку в Інтернеті:
"туристичні напрямки поблизу аеропорту Лондон Хітроу"
Методи, що використовуються експертами для оцінки обмежень і вразливостей системи, а також для перевірки ефективності запланованих заходів послаблення ризиків. Тестування червоної команди та стрес-тестування використовуються для виявлення потенційних ризиків і відрізняються від систематичного вимірювання ризиків.
Текст, зображення, діаграми тощо, які Copilot у Bing результатів у відповідь на запит. Синоніми для "відповіді" включають "завершення", "покоління" та "відповідь". Наприклад, Bing може надати таку відповідь на запит, який ми використовували у визначенні "prompt" вище:
"Вітаємо з річницею! Є багато місць, куди ви можете відправитися, які знаходяться в межах 3-годинного рейсу з Лондона Хітроу. За даними одного джерела, деякі вихідні тікають протягом трьох годин літаком з Лондона Більбао, Копенгаген, Рейк'явік і Стокгольм 1, 2. Інше джерело припускає, що одними з кращих місць, щоб відправитися в Європі у вересні є Краків, Флоренція, і Лісабон 3, 4. Ви також можете перевірити прямі рейси з Лондона Хітроу в різні напрямки і подивитися, що звертається до вас 5. Я сподіваюся, що у вас є чудова поїздка!”
Цільове використання та нові можливості AI
Copilot у Bing використовується для підключення користувачів до відповідних результатів пошуку, перегляду результатів з усього Інтернету, щоб знайти та підсумувати відповіді, які шукають користувачі, допомогти користувачам уточнити свої дослідження, щоб отримати відповіді за допомогою чату, і викликати творчі здібності, допомагаючи користувачам створювати вміст. Copilot у Bing генеративні інтерфейси AI нижче підтримують мету бути AI-powered copilot для Інтернету.
Зведення. Коли користувачі надсилають пошуковий запит на Copilot у Bing, система Bing обробляє запит, виконує один або кілька пошукових запитів в Інтернеті та використовує найкращі результати пошуку в Інтернеті, щоб створити зведення інформації, яку потрібно представити користувачам. Ці зведення містять посилання, які допомагають користувачам переглядати та легко отримувати доступ до результатів пошуку, які дають змогу обґрунтувати зведення. Зведення можуть відображатися в правій частині сторінки результатів пошуку та в чаті.
Чат. Крім зведення, користувачі можуть спілкуватися з Copilot у Bing системою за допомогою тексту, зображення або голосового вводу, ставити подальші запитання, щоб роз'яснювати пошукові запити та знаходити нову інформацію, а також надсилати запити на створення творчого вмісту. Посилання також додаються до чату, коли Copilot у Bing підсумовує результати пошуку у відповіді.
Створення творчого вмісту. Як у чаті, так і на сторінці пошуку користувачі можуть створювати вірші, жарти, історії, зображення та інший вміст за допомогою Copilot у Bing. Зображення створюються Designer (колишня Творець зображень Bing), і користувачі можуть отримати доступ до цієї функції через домашню сторінку Designer, а також сторінку Copilot.
Як працює Copilot у Bing?
Завдяки Copilot у Bing ми розробили інноваційний підхід, який допоможе привести найсучасніші LLMs до пошуку в Інтернеті. Коли користувач вводить запит у Copilot у Bing, запит, журнал останніх розмов, метапромпт і найпопулярніші результати пошуку надсилаються як вхідні дані в LLM. Модель створює відповідь за допомогою запиту користувача та журналу останніх розмов, щоб контекстуалізувати запит, метапромпт для узгодження відповідей із принципами AI Microsoft і очікуваннями користувачів, а також результатами пошуку для обґрунтованих відповідей у наявному, високопоставленому вмісті з Інтернету.
Відповіді надаються користувачам у кількох різних форматах, наприклад у традиційних посиланнях на веб-вміст, зведення, створені за допомогою ШІ, зображення та відповіді в чаті. Зведення та відповіді в чаті, які використовують результати пошуку в Інтернеті, міститимуть посилання та розділ "Докладніше" під відповідями з посиланнями на результати пошуку, які використовувалися для створення відповіді. Користувачі можуть перейти за цими посиланнями, щоб дізнатися більше про тему та інформацію, яка використовується для зведення або відповіді в чаті.
У досвіді Copilot користувачі можуть здійснювати пошукові запити в Інтернеті розмовно, додаючи контекст до свого запиту та взаємодіючи з відповідями системи для подальшого визначення своїх інтересів пошуку. Наприклад, користувач може ставити подальші запитання, запитувати додаткову уточнювальну інформацію або відповідати на них розмовним способом. У чаті користувачі також можуть вибрати відповідь із попередньо написаних пропозицій, які ми називаємо пропозиціями чату. Ці кнопки з'являються після кожної відповіді Copilot і надають рекомендовані підказки для продовження розмови в чаті. Пропозиції чату також відображаються разом із зведеним вмістом на сторінці результатів пошуку як точкою входу в чат.
Copilot у Bing також дозволяє користувачеві створювати розповіді, вірші, тексти пісень і зображення за допомогою Bing. Коли Copilot у Bing виявляє намір користувача створити творчий вміст (наприклад, запит починається з "написати мені ..."), система, здебільшого, створить вміст, який реагує на запит користувача. Аналогічно, коли Copilot у Bing виявляє намір користувача створити зображення (наприклад, запит починається з "намалювати мені ..."), система, здебільшого, створить зображення, що реагує на запит користувача. У візуальному пошуку в чаті із зображенням, зробленим камерою користувача, завантаженим із пристрою користувача або пов'язаним з Інтернетом, користувачі можуть пропонувати Copilot у Bing зрозуміти контекст, інтерпретувати зображення та відповісти на запитання про нього. Користувачі також можуть передавати свої файли в Copilot, щоб інтерпретувати, перетворювати, обробляти або обчислювати інформацію з них. У Microsoft Designer можливості, до яких користувачі можуть отримувати доступ через Copilot у Bing, користувачі можуть не тільки створювати зображення за допомогою підказок, а й змінювати їх розмір або переміщувати їх, а також редагувати, наприклад розмити фон або зробити кольори яскравішими.
Користувачі з обліковими записами Microsoft (MSA) тепер також мають можливість підписатися на Copilot Pro, які пропонують розширені можливості, зокрема прискорюють продуктивність і швидше створюють зображення зі ШІ. Copilot Pro зараз доступна в обмежених країнах, і незабаром ми плануємо зробити Copilot Pro доступними на більшій кількості ринків.
Щоб дізнатися більше про Copilot Pro, відвідайте цю сторінку.
Copilot у Bing прагне надати різноманітні та вичерпні результати пошуку завдяки прагненню до вільного та відкритого доступу до інформації. У той же час ми докладаємо зусиль з якості продукту, щоб уникнути ненавмисного поширення потенційно небезпечного вмісту для користувачів. Докладні відомості про те, як Bing оцінює вміст, зокрема про те, як він визначає відповідність і якість і довіру до веб-сторінки, див. в розділі "Рекомендації для веб-майстра Bing". Докладні відомості про принципи модерації вмісту Bing див. в статті "Як Bing надає результати пошуку".
У Copilot у Windows можливості Copilot у Bing можуть працювати з операційною системою Windows, щоб надавати певні навички Windows, наприклад змінювати тему або фон користувача, а також змінювати такі параметри, як аудіо, Bluetooth і мережі. Ці можливості дають змогу користувачу настроювати свої настройки та покращувати інтерфейс користувача, використовуючи запити природною мовою до LLM. Функції, які стосуються конкретних програм, також можна надавати за допомогою плагінів програм сторонніх постачальників. Вони можуть автоматизувати повторювані завдання та підвищити ефективність користувача. Оскільки інколи користувачі можуть помилятися, наводяться відповідні запити на підтвердження, щоб користувач був останнім арбітром змін, які можна внести.
Визначення, вимірювання та зниження ризиків
Як і інші трансформаційні технології, використання переваг ШІ не є безризиковим, а основна частина програми Відповідального AI корпорації Майкрософт призначена для виявлення потенційних ризиків, вимірювання їхньої схильності до виникнення та створення заходів послаблення ризиків для їх усунення. Керуючись нашими принципами ШІ та нашим Відповідальним стандартом ШІ, ми прагнули визначити, виміряти та зменшити потенційні ризики та неналежне використання Copilot у Bing забезпечуючи трансформаційне та вигідне використання, яке надає новий досвід. У наведених нижче розділах описано наш ітеративний підхід до виявлення, вимірювання та зменшення потенційних ризиків.
На рівні моделі наша робота почалася з дослідницького аналізу GPT-4 наприкінці літа 2022 року. Це включало проведення широкого тестування червоної команди у співпраці з OpenAI. Це тестування було розроблено для оцінки того, як нові технології будуть працювати без будь-яких додаткових гарантій, застосованих до нього. Наш конкретний намір на цей час полягав у виробництві шкідливих відповідей, поверхні потенційних шляхів для неправильного використання, а також виявлення можливостей і обмежень. Наші комбіновані навчання в OpenAI і Microsoft сприяли розвитку моделей і, для нас, у корпорації Майкрософт, повідомили наше розуміння ризиків і сприяли раннім стратегіям пом'якшення наслідків для Copilot в Bing.
Окрім тестування червоної команди на рівні моделі, мультидисциплінарна команда експертів провела численні раунди тестування червоної команди на рівні програм на Copilot у Bing інтерфейсі AI, перш ніж зробити їх загальнодоступними в нашому обмеженому попередньому перегляді випуску. Цей процес допоміг нам краще зрозуміти, як система може бути використана змагальними акторами і поліпшити наші пом'якшення. Не змагальні стрес-тестувальники також широко оцінювали нові функції Bing для недоліків і вразливостей. Після випуску нові інтерфейси AI в Bing інтегровано в наявну інфраструктуру вимірювання та тестування виробництва в інженерній організації Bing. Наприклад, червоні тестувальники команд із різних регіонів і фону постійно та систематично намагаються поставити під загрозу систему, а їхні результати використовуються для розширення наборів даних, які Bing використовує для вдосконалення системи.
Тестування червоної команди та стрес-тестування можуть виявити випадки конкретних ризиків, але у виробничих користувачів будуть мільйони різних видів розмов з Copilot у Bing. Крім того, розмови багатовимірні та контекстні, а виявлення шкідливого вмісту в розмові – це складне завдання. Для кращого розуміння та вирішення потенційних ризиків у Copilot у Bing інтерфейсах AI ми розробили додаткові відповідальні показники AI, що стосуються нових можливостей AI, для вимірювання потенційних ризиків, таких як джейлбрейка, шкідливий вміст і незаземлений вміст. Ми також ввімкнули вимірювання на масштабі через частково автоматизовані трубопроводи вимірювання. Щоразу, коли змінюються продукти, оновлюються наявні засоби послаблення ризиків або пропонуються нові засоби послаблення ризиків, ми оновлюємо наші вимірювальні трубопроводи, щоб оцінювати як продуктивність продукту, так і відповідальні показники AI.
Як показовий приклад оновлений частково автоматизований процес вимірювання шкідливого вмісту містить два основні нововведення: моделювання розмов і автоматизована, перевірена людиною примітка до розмови. По-перше, відповідальні фахівці зі ШІ створили шаблони для захоплення структури та вмісту розмов, які можуть призвести до різних типів шкідливого вмісту. Ці шаблони потім були надані розмовному агенту, який взаємодіяв як гіпотетичний користувач з Copilot у Bing, створіть імітовані розмови. Щоб визначити, чи містять ці імітовані розмови шкідливий вміст, ми прийняли рекомендації, які зазвичай використовуються експертами-мовознавцями для позначення даних і змінення їх для використання GPT-4 для позначення розмов у масштабі, уточнення рекомендацій, поки не було значної згоди між розмовами з підписами моделі та розмовами, позначеними людиною. Нарешті, ми використали розмови з підписом моделі, щоб обчислити відповідальний показник AI, який фіксує ефективність Copilot у Bing у пом'якшенні ризику шкідливого вмісту.
Наші вимірювальні трубопроводи дають нам змогу швидко виконувати вимірювання потенційних ризиків у масштабі. Коли ми виявляємо нові проблеми протягом періоду попереднього перегляду та поточного тестування червоної команди, ми продовжуємо розширювати набори вимірювань для оцінки додаткових ризиків.
Оскільки ми визначили потенційні ризики та неправильне використання через такі процеси, як тестування червоної команди та стрес-тестування, і виміряли їх інноваційними підходами, описаними вище, ми розробили додаткові заходи послаблення ризиків для тих, хто використовується для традиційного пошуку. Нижче описано деякі з цих пом'якшень. Ми продовжуватимемо стежити за Copilot у Bing інтерфейсами AI, щоб підвищити продуктивність продуктів і послаблення ризиків.
Поетапний випуск, постійна оцінка. Ми прагнемо постійно вивчати та вдосконалювати наш відповідальний підхід до AI у міру розвитку наших технологій і поведінки користувачів. Наша стратегія інкрементного випуску була основною частиною того, як ми безпечно переміщуємо нашу технологію з лабораторій у світ, і ми прагнемо до навмисного, продуманого процесу, щоб забезпечити переваги Copilot у Bing. Обмеження кількості користувачів, які мають доступ протягом періоду попереднього перегляду, дозволило нам виявити, як люди використовують Copilot у Bing, включно з тим, як люди можуть зловживати нею, щоб ми могли спробувати зменшити нові проблеми до більш широкого випуску. Наприклад, ми вимагаємо від користувачів пройти автентифікацію за допомогою свого облікового запису Microsoft, перш ніж отримати доступ до нових можливостей Bing. Неавтентифіковані користувачі можуть отримати доступ лише до обмеженої попередньої версії інтерфейсу. Ці кроки перешкоджають зловживанням і допомагають нам (за потреби) вжити відповідних заходів у відповідь на порушення Правил поведінки. Ми вносимо зміни до Copilot у Bing щодня, щоб підвищити продуктивність продукту, покращити наявні заходи зниження ризику та впровадити нові заходи зниження ризиків у відповідь на наші навчання протягом підготовчого періоду.
Заземлення в результатах пошуку. Як зазначено вище, Copilot у Bing призначено для надання відповідей, які підтримуються інформацією в результатах пошуку в Інтернеті, коли користувачі шукають інформацію. Наприклад, система надається з текстом з кращих результатів пошуку та інструкціями через метапромпт, щоб заземлити свою відповідь. Однак у зведенні вмісту з Інтернету Copilot у Bing може містити інформацію у своїй відповіді, відсутньої в його джерелах вводу. Іншими словами, це може призвести до отримання результатів без заземлення. Наші ранні оцінки показали, що результати без заземлення в чаті можуть бути більш поширеними для певних типів запитів або тем, ніж інші, наприклад запит на математичні обчислення, фінансову або ринкову інформацію (наприклад, прибуток компанії, дані про ефективність акцій) і інформацію, таку як точні дати подій або конкретні ціни на товари. Користувачам слід завжди бути обережними та використовувати своє найкраще рішення під час перегляду зведених результатів пошуку на сторінці результатів пошуку або в чаті. Ми вжили кількох заходів, щоб зменшити ризик того, що користувачі можуть надмірно покладатися на незазгенерований вміст у сценаріях зведення та чаті. Наприклад, відповіді в Copilot у Bing, основані на результатах пошуку, включають посилання на вихідні веб-сайти, щоб користувачі могли перевірити відповідь і дізнатися більше. Користувачам також надається явне повідомлення про те, що вони взаємодіють з системою ШІ, і порадили перевірити матеріали джерела результатів в Інтернеті, щоб допомогти їм використовувати їх найкраще судження.
Класифікатори на основі ШІ та метапромовування для зменшення потенційних ризиків або неправильного використання. Використання LLMs може призвести до проблемного вмісту, який може призвести до ризиків або неправильного використання. Приклади можуть містити результати, пов'язані з самоушкодженням, насильством, графічним вмістом, інтелектуальною власністю, неточною інформацією, мовою ворожнечі або текстом, який може стосуватися незаконної діяльності. Класифікатори та метапромптори – це два приклади пом'якшення, впроваджені в Copilot у Bing, щоб знизити ризик таких типів вмісту. Класифікатори класифікують текст, щоб позначити різні типи потенційно шкідливого вмісту в пошукових запитах, запитах чату або створених відповідях. Bing використовує класифікатори та фільтри вмісту на основі ШІ, які застосовуються до всіх результатів пошуку та відповідних функцій; ми розробили додаткові підказки класифікаторів і фільтрів вмісту спеціально для вирішення можливих ризиків, підвищених функціями Copilot у Bing. Позначки призводять до потенційних ризиків, наприклад, що користувач не повертає створений вміст, переадресовує користувача на іншу тему або переспрямовує користувача на традиційний пошук. Метапромптінг передбачає надання вказівок моделі для керівництва її поведінкою, зокрема, щоб система поводилася відповідно до принципів AI корпорації Майкрософт і очікувань користувачів. Наприклад, метапромпт може містити таку лінію, як "спілкування мовою вибору користувача".
Захист конфіденційності у візуальному пошуку в Copilot у Bing. Коли користувачі завантажують зображення в рамках свого чату, Copilot у Bing використовуватиме технологію розмиття обличчя, перш ніж надсилати зображення моделі ШІ. Розмиття обличчя використовується для захисту конфіденційності людей на зображенні. Технологія розмиття обличчя спирається на контекстні підказки, щоб визначити, де розмитися, і спробує розмити всі обличчя. Коли обличчя розмиті, модель ШІ може порівняти введене зображення з зображеннями, доступними для загальнодоступних програм в Інтернеті. Як наслідок, наприклад, Copilot у Bing може бути в змозі ідентифікувати відомого баскетболіста з фотографії цього гравця на баскетбольному майданчику, створивши числове представлення, яке відображає номер трикотажу гравця, колір трикотажу, наявність баскетбольного обруча тощо. Copilot у Bing не зберігає числові уявлення людей із завантажених зображень і не передає їх третім особам. Copilot у Bing використовує числові представлення зображень, які користувачі завантажують лише для відповіді на запити користувачів, а потім видаляються протягом 30 днів після завершення чату.
Якщо користувач просить Copilot у Bing надати інформацію про передане зображення, відповіді в чаті можуть відображати вплив розмиття обличчя на здатність моделі надавати інформацію про передане зображення. Наприклад, Copilot у Bing може описати когось як такий, що має розмите обличчя.
Обмеження розмовного дрейфу. Під час попереднього перегляду ми дізналися, що дуже довгі сеанси чату можуть призвести до повторюваних, некорисних або несумісних із потрібним тоном Copilot у Bing. Для вирішення цього розмовного дрейфу ми обмежили кількість поворотів (обміни, які містять як запитання користувача, так і відповідь від Copilot у Bing) за сеанс чату. Ми продовжуємо оцінювати додаткові підходи до пом'якшення цієї проблеми.
Швидке збагачення. У деяких випадках запит користувача може бути неоднозначним. У такому разі Copilot у Bing можуть використовувати LLM, щоб надати докладніші відомості в запиті, щоб переконатися, що користувачі отримають потрібну відповідь. Таке оперативне збагачення не спирається ні на знання користувача, ні на попередні пошукові запити, а на модель ШІ. Ці переглянуті запити відображатимуться в журналі чату користувача, і їх, як і інші пошукові запити, можна видалити за допомогою елементів керування в продукті.
Втручання в дизайн і інтерфейс користувача, відцентровані користувачами. Користувацький дизайн і інтерфейс користувача – це важливий аспект підходу корпорації Майкрософт до відповідального ШІ. Мета полягає в кореневому дизайні продукту в потребах і очікуваннях користувачів. Коли користувачі взаємодіють з Copilot у Bing вперше, ми пропонуємо різні сенсорні точки, призначені для того, щоб допомогти їм зрозуміти можливості системи, розкрити їм, що Copilot у Bing працює на ШІ, і повідомити про обмеження. Цей функціонал розроблено таким чином, щоб допомогти користувачам максимально ефективно використовувати Copilot у Bing і мінімізувати ризик надмірної залежності. Елементи цієї функції також допомагають користувачам краще зрозуміти Copilot у Bing та їхні взаємодії з ним. До них відносяться пропозиції чату, що стосуються відповідального ШІ (наприклад, як Bing використовує AI? Чому не Copilot у Bing відповідати на деякі теми?), пояснення обмежень, способи, якими користувачі можуть дізнатися більше про роботу системи та звітувати про відгуки, а також легко навігаційні посилання, які відображаються у відповідях, щоб показати користувачам результати та сторінки, на яких відповіді обґрунтовані.
Розголошення ШІ. Copilot у Bing надає кілька сенсорних точок для змістовного розголошення ШІ, де користувачі отримують сповіщення про взаємодію з системою AI, а також можливості дізнатися більше про Copilot у Bing. Розширення прав і можливостей користувачів із цими знаннями може допомогти їм уникнути надмірного покладатися на ШІ і дізнатися про сильні сторони та обмеження системи.
Медіа-походження.Microsoft Designer ввімкнула функцію "Облікові дані вмісту", яка використовує криптографічні методи для позначення джерела, або "походження" всіх зображень, створених за допомогою ШІ, створених на Designer. Невидима функція цифрового водяного знака відображає джерело, час і дату вихідного створення, і ці відомості не можна змінити. У технології використовуються стандарти, встановлені Коаліцією за контент і автентичність (C2PA), щоб додати додатковий рівень довіри та прозорості для зображень, створених ШІ. Корпорація Майкрософт є співзасновником C2PA і внесла свій внесок у базову технологію походження цифрового вмісту.
Умови використання та Правила поведінки. Цей ресурс регулює використання Copilot у Bing. Користувачі повинні дотримуватися Умов використання та Кодексу поведінки, що, серед іншого, інформує їх про допустиме та неприпустиме використання та наслідки порушення умов. Умови використання також надають додаткові розголошення для користувачів і слугує зручним посиланням для користувачів, щоб дізнатися про Copilot у Bing.
Операції та швидке реагування. Ми також використовуємо поточні моніторингові та операційні процеси Copilot у Bing для вирішення Copilot у Bing отримання сигналів або отримання звіту, що вказує на можливе неправильне використання або порушення Умов використання або Кодексу поведінки.
Відгуки, моніторинг і нагляд. Copilot у Bing можливості працюють на основі наявних інструментів, які дають змогу користувачам надсилати відгуки та повідомляти про проблеми, які розглядаються операційними групами Корпорації Майкрософт. Операційні процеси Bing також розширено, щоб пристосувати функції в Copilot у Bing досвіді, наприклад оновлення сторінки "Повідомити про проблему", щоб включити нові типи вмісту, які користувачі створюють за допомогою моделі.
Наш підхід до виявлення, вимірювання та зниження ризиків і надалі змінюватиметься, коли ми дізнаємося більше, і ми вже вдосконалюємо їх на основі відгуків, зібраних протягом підготовчого періоду.
Автоматичне виявлення вмісту. Коли користувачі завантажують зображення в рамках свого чату, Copilot у Bing розгортає інструменти для виявлення зображень сексуальної експлуатації та насильства над дітьми (CSEAI), особливо технологію хеш-зіставлення PhotoDNA. Корпорація Майкрософт розробила PhotoDNA, щоб допомогти знайти дублікати відомих CSEAI. Корпорація Майкрософт повідомляє про всі очевидні CSEAI Національному центру зниклих та експлуатованих дітей (NCMEC), як того вимагає законодавство США. Коли користувачі завантажують файли для аналізу або обробки, Copilot розгортає автоматизоване сканування, щоб виявити вміст, який може призвести до ризиків або неправильного використання, наприклад тексту, який може пов'язати з незаконною діяльністю або зловмисним кодом.
Захист конфіденційності
Давня думка корпорації Майкрософт про те, що конфіденційність є фундаментальним правом людини, повідомила про кожен етап розробки та розгортання корпорацією Майкрософт Copilot у Bing досвіду. Наші зобов'язання щодо захисту конфіденційності всіх користувачів, зокрема забезпечення прозорості та контролю над своїми даними та інтеграції конфіденційності за допомогою мінімізації даних і обмеження мети, є основою для Copilot у Bing. У міру розвитку нашого підходу до забезпечення генеративного інтерфейсу AI Copilot у Bing, ми будемо постійно вивчати, як краще захистити конфіденційність. Цей документ буде оновлено, як ми це робимо. Докладні відомості про те, як корпорація Майкрософт захищає конфіденційність наших користувачів, див. в Декларації корпорації Майкрософт про конфіденційність.
У Copilot у Windows досвіді навички Windows можуть надавати спільний доступ до відомостей про користувачів у розмові чату. Ця дія підлягає затвердженню користувача, і відображаються запити на підтвердження намірів користувача перед наданням спільного доступу до відомостей про користувача розмові в чаті.
Корпорація Майкрософт продовжує розглядати потреби дітей та молоді в рамках оцінювання ризиків нових функцій генеративного ШІ у Copilot у Bing. Усі облікові записи Microsoft дитини, які ідентифікують користувача віком до 13 років або як інше зазначено місцевим законодавством, не можуть увійти в систему, щоб отримати доступ до повної нової версії Bing.
Як описано вище, для всіх користувачів ми впровадили засоби захисту, які пом'якшуватимуть потенційно шкідливий вміст. У Copilot у Bing результати встановлюються в суворому режимі Bing SafeSearch, який має найвищий рівень захисту безпеки в основному пошуку Bing, тому користувачі, зокрема користувачі підлітків, не піддаються впливу потенційно небезпечного вмісту. На додачу до інформації, наданої в цьому документі, і в наших запитаннях і відповідях щодо функцій чату, тут наведено додаткові відомості про те, як Copilot у Bing працює, щоб уникнути реагування на неочікуваний образливий вміст у результатах пошуку.
Корпорація Майкрософт зобов'язалася не надавати персоналізовану рекламу на основі поведінки в Інтернеті дітям, дата народження яких в обліковому записі Microsoft визначає їх як такі, що не досягли 18 років. Цей важливий захист поширюється на рекламу в Copilot у Bing функціях. Користувачі можуть бачити контекстну рекламу на основі запиту або запиту, який використовується для взаємодії з Bing.
Щоб розблокувати трансформативний потенціал генеративного ШІ, ми повинні побудувати довіру до цієї технології, надавши окремим особам можливість зрозуміти, як використовуються їхні дані, і надати їм змістовний вибір і елементи керування своїми даними. Copilot у Bing призначена для визначення пріоритетів людської агенції, шляхом надання інформації про те, як працює продукт, а також його обмежень, а також шляхом розширення нашого надійного вибору споживачів і елементів керування для Copilot у Bing функцій.
Декларація корпорації Майкрософт про конфіденційність надає інформацію про наші прозорі методи забезпечення конфіденційності для захисту наших клієнтів, а також визначає відомості про елементи керування, які дають змогу нашим користувачам переглядати свої особисті дані та керувати ними. Щоб користувачі мали потрібну інформацію, коли взаємодіють із новими розмовними функціями Bing, розголошення в продукті інформує користувачів про те, що вони взаємодіють з продуктом штучного інтелекта, а також ми надаємо посилання на подальші запитання й пояснення щодо роботи цих функцій. Корпорація Майкрософт продовжуватиме прослуховувати відгуки користувачів і додаватиме докладні відомості про функції розмов Bing відповідно до розуміння способу роботи продукту.
Корпорація Майкрософт також надає своїм користувачам надійні інструменти для здійснення своїх прав на доступ до своїх особистих даних. Для даних, зібраних Copilot у Bing, зокрема через запити користувачів і запити, приладна дошка конфіденційності Microsoft надає автентифікованим (ввійти) користувачам інструменти для здійснення своїх прав суб'єкта даних, зокрема надання користувачам можливості переглядати, експортувати та видаляти збережений журнал розмов. Корпорація Майкрософт продовжує відгуки про те, як вони хочуть керувати своїм новим інтерфейсом Bing, зокрема за допомогою можливості керування даними в контексті.
Copilot у Bing також дотримується запитів відповідно до європейського права бути забутим, після процесу, який корпорація Майкрософт розробила та уточнила для традиційних функцій пошуку Bing. Усі користувачі можуть повідомити про проблеми, які стосуються створеного вмісту та відповідей тут, а наші європейські користувачі можуть використовувати цю форму для надсилання запитів на блокування результатів пошуку в Європі під правом бути забутими.
Copilot у Bing буде вшановувати варіанти конфіденційності користувачів, зокрема ті, які раніше були зроблені в Bing, наприклад згоду на збирання та використання даних, які запитано за допомогою банерів файлів cookie та елементів керування, доступних на приладній дошці конфіденційності Microsoft. Щоб забезпечити автономію користувачів і свободу вибору при прийнятті обґрунтованих рішень, ми використали внутрішній процес перевірки, щоб ретельно вивчити, як користувачі отримують вибір.
Окрім елементів керування, доступних через приладну дошку конфіденційності Microsoft, які дають змогу користувачам переглядати, експортувати та видаляти журнал пошуку, зокрема компоненти історії чатів, автентифіковані користувачі, які ввімкнули функцію "Журнал чату" в продукті, можуть переглядати, отримувати доступ до історії чатів і завантажувати їх за допомогою елементів керування в продукті. Користувачі можуть очистити певні чати з журналу чату або повністю вимкнути функцію журналу чату в будь-який час, відвідавши сторінку настройок Bing. Користувачі також можуть вибрати, чи дозволити персоналізації отримувати доступ до більш індивідуального налаштування за допомогою персоналізованих відповідей. Користувачі можуть відмовитися від персоналізації в будь-який час у настройках чату на сторінці настройок Bing. Очищення певних чатів із журналу чату запобігає їх використанню для персоналізації. запитаннях і відповідях.
Докладні відомості про історію чату та персоналізацію надано користувачам у Copilot у BingCopilot у Bing було створено з урахуванням конфіденційності, тому особисті дані збираються та використовуються лише за потреби та зберігаються не більше ніж необхідно. Як зазначалося вище, функція візуального пошуку в Copilot у Bing розгортає механізм, який розмиває обличчя на зображеннях під час передавання користувачами, щоб зображення обличчя більше не обробувалися та не зберігалися. Докладні відомості про персональні дані, які збирає Bing, про те, як вони використовуються, а також про те, як вони зберігаються та видаляються, див. в Декларації корпорації Майкрософт про конфіденційність, яка також надає відомості про нові функції чату Bing.
Copilot в Bing має політики збереження та видалення даних, щоб забезпечити зберігання особистих даних, зібраних за допомогою функцій чату Bing, лише за потреби.
Ми будемо продовжувати вивчати і розвивати наш підхід у наданні Copilot у Bing, і, як ми це робимо, ми будемо продовжувати працювати над дисциплінами, щоб узгодити наші інновації AI з людськими цінностями і основними правами, включаючи захист молодих користувачів і конфіденційність.
Copilot із комерційним захистом даних
Copilot з комерційним захистом даних, раніше відомий як Bing Chat Enterprise ("BCE"), був випущений корпорацією Майкрософт у безкоштовній загальнодоступній підготовчій версії в липні 2023 року як безкоштовний додатковий компонент для певних клієнтів M365. Copilot із комерційним захистом даних – це розширений інтерфейс пошуку в Інтернеті для корпоративних користувачів.
Як і в Copilot у Bing, коли Copilot із комерційним захистом даних вводить запит в інтерфейс, запит, негайна розмова, найкращі результати пошуку та метапромпт надсилаються як вхідні дані в LLM. Модель створює відповідь за допомогою оперативного та негайного журналу розмов, щоб контекстуалізувати запит, метапромпт для узгодження відповідей із принципами AI Microsoft і очікуваннями користувачів, а також результатами пошуку для обґрунтованих відповідей у наявному, високопоставленому вмісті з Інтернету. Це працює так само, як Copilot в Bing, як описано вище в цьому документі, за винятком того, що Copilot із захистом комерційних даних залежить лише від негайної історії розмов (а не останнього журналу розмов) через те, що збережений журнал чату не підтримується функцією. Designer і Visual Search тепер доступні в цій версії.
Як і інші трансформаційні технології, використання переваг ШІ не є безризиковим, а основна частина програми Відповідального AI корпорації Майкрософт призначена для виявлення потенційних ризиків, вимірювання їхньої схильності до виникнення та створення заходів послаблення ризиків для їх усунення. Знову ж таки, наведений вище опис зусиль Корпорації Майкрософт щодо виявлення, вимірювання та зменшення потенційних ризиків для Copilot у Bing також застосовується до цієї версії, з деякими роз'ясненнями щодо послаблення ризиків, описаних нижче:
Поетапний випуск, постійна оцінка. Так само, як і з Copilot Bing, для Copilot з комерційним захистом даних ми також взяли підхід інкрементного випуску. 18 липня 2023 року Copilot з комерційним захистом даних став доступний як безкоштовний попередній перегляд для відповідних корпоративних клієнтів з певними обліковими записами M365, які мають увімкнути для своїх корпоративних користувачів. Через тридцять (30) днів після повідомлення відповідних корпоративних клієнтів, Copilot з комерційним захистом даних став "за замовчуванням" для тих же клієнтів. Copilot з комерційним захистом даних також з тих пір став доступним для конкретних облікових записів навчального закладу M365. Copilot з комерційним захистом даних став загальнодоступним для деяких корпоративних клієнтів 1 грудня 2023 року. У майбутньому ми плануємо розширити доступ до Copilot з комерційним захистом даних для більш Ідентифікатор Microsoft Entra користувачів.
Умови використання та Правила поведінки. Кінцеві користувачі Copilot із комерційним захистом даних повинні дотримуватися Умов використання Кінцевим користувачем. Ці Умови використання інформують користувачів про допустиме та неприпустиме використання та наслідки порушення умов.
Операції та швидке реагування. Ми також використовуємо поточні моніторингові та операційні процеси Copilot у Bing для вирішення, коли Copilot із комерційним захистом даних отримує сигнали або отримує звіт, що вказує на можливе неправильне використання або порушення Умов використання Користувачем.
Відгуки, моніторинг і нагляд. У Copilot із комерційним захистом даних використовується той самий інструмент, що й Copilot у Bing, щоб користувачі надсилали відгуки та повідомляли про проблеми, які розглядаються операційними групами Microsoft. операційні процеси Copilot у Bing також розширилися, щоб пристосувати функції в Copilot з комерційними можливостями захисту даних, наприклад, оновивши сторінку Report a Concern, щоб включити нові типи вмісту, який користувачі створюють за допомогою моделі.
Щоб користувачі мали необхідну інформацію, коли взаємодіють з Copilot із комерційним захистом даних, у нижній частині цього документа доступна документація продукту, зокрема сторінки запитань і відповідей і докладні відомості.
Підказки та відповіді, створені кінцевими користувачами в Copilot із комерційним захистом даних, обробляються та зберігаються відповідно до стандартів обробки корпоративних даних. Copilot з комерційною пропозицією захисту даних в даний час доступний тільки для корпоративних клієнтів і їх автентифікованих дорослих кінцевих користувачів, тому ми не очікуємо, що діти або молодь будуть кінцевими користувачами Copilot з комерційним захистом даних в цей час. Крім того, Copilot з комерційним захистом даних не надає будь-яку рекламу, орієнтовану на поведінку, кінцевим користувачам. Натомість будь-які рекламні оголошення, які відображаються, – це лише реклама, яка відповідає контексту.
Докладніше
Цей документ є частиною більш широких зусиль у корпорації Майкрософт, щоб на практиці втілити в життя наші принципи ШІ. Докладні відомості див. в статті:
Підхід Корпорації Майкрософт до відповідального ШІ
Відповідальний стандарт AI корпорації Майкрософт
Про цей документ
© Microsoft 2023. Усі права захищено. Цей документ надано "як є" та виключно для ознайомлення. Відомості та подання, виражені в цьому документі, включно з URL-адресою та іншими посиланнями на веб-сайт в Інтернеті, можуть змінюватися без попередження. Ризик, пов’язаний із його використанням, покладається на вас. Деякі приклади призначені лише для ілюстрацій і є вигаданими. Жоден справжній зв'язок не призначений або не припускається.