Перейти до основного
Підтримка
Вхід
Вхід за допомогою облікового запису Microsoft
Увійдіть або створіть обліковий запис.
Вітаємо,
Виберіть інший обліковий запис.
У вас є кілька облікових записів
Виберіть обліковий запис, за допомогою якого потрібно ввійти.

Останнє оновлення: лютий 2024 р.

Основи Copilot в Bing   

Вступ  

У лютому 2023 року корпорація Майкрософт запустила нову службу Bing – розширений веб-пошук за допомогою AI. Він підтримує користувачів, підсумовуючи результати пошуку в Інтернеті та забезпечуючи чат. Користувачі також можуть генерувати творчий контент, наприклад вірші, жарти, історії та, з Творець зображень Bing, зображення. Нова Bing, розширена за технологією AI, працює на різних передових технологіях від Microsoft і OpenAI, включаючи GPT-4, найсучаснішу велику мовну модель (LLM) і DALL-E, глибоку модель навчання для створення цифрових зображень з описів природної мови як з OpenAI. Ми працювали з обома моделями протягом декількох місяців до загальнодоступного випуску, щоб розробити настроюваний набір можливостей і методів, щоб приєднатися до цієї передової технології AI та пошуку в Інтернеті в новій службі Bing.  У листопаді 2023 року корпорація Майкрософт перейменувала нову Bing на Copilot у Bing.

У корпорації Майкрософт ми серйозно ставимося до наших зобов'язань щодо відповідального за ШІ. Copilot у Bing розроблено відповідно до принципів AI корпорації Майкрософт, відповідального стандарту AI корпорації Майкрософт, а також у партнерстві з відповідальними експертами зі ШІ в усій компанії, зокрема з Microsoft Office відповідального AI, нашими інженерними командами, Microsoft Research і Aether. Ви можете дізнатися більше про відповідальний ШІ в корпорації Майкрософт тут.  

У цьому документі ми описуємо наш підхід до відповідального ШІ для Copilot в Bing. Напередодні випуску ми прийняли найсучасніші методи для виявлення, вимірювання та зменшення потенційних ризиків і зловживання системою, а також для забезпечення її переваг для користувачів. Оскільки ми продовжуємо розвиватися Copilot в Bing з моменту першого випуску, ми також продовжуємо вчитися і покращувати наші відповідальні зусилля з ШІ. Цей документ періодично оновлюватиметься, щоб повідомити наші процеси та методи, що розвиваються.   

Ключові терміни  

Copilot в Bing – це розширений інтерфейс пошуку в Інтернеті, розширений за допомогою AI. Оскільки вона працює на потужній, новій технології, ми починаємо з визначення деяких ключових термінів.  

Моделі машинного навчання, які допомагають сортувати дані за позначеними класами або категоріями інформації. У Copilot в Bing один зі способів, в якому ми використовуємо класифікатори, полягає в тому, щоб допомогти виявити потенційно шкідливий вміст, надісланий користувачами або створений системою, щоб зменшити покоління цього вмісту та неналежне використання або зловживання системою. 

Copilot в Bing обґрунтовано в результатах пошуку в Інтернеті, коли користувачі шукають інформацію. Це означає, що ми відцентруємо відповідь, надану запиту користувача, або запит на вміст з Інтернету, і надаємо посилання на веб-сайти, щоб користувачі могли дізнатися більше. Bing оцінює вміст пошуку в Інтернеті за допомогою таких функцій, як актуальність, якість і довіра, а також свіжість. Ми більш детально описуємо ці поняття в статті Як Bing доставляє результати Пошук (див. розділ "Якість і довіра" в розділі "Як Bing рангує Пошук результати").   

Ми вважаємо заземленими відповіді від Copilot в Bing, у яких інструкції підтримуються інформацією, що міститься в джерелах вводу, такими як результати пошуку в Інтернеті з запиту або підказки, база знань перевіреної фактом інформації Bing і, для чату, недавньої історії розмов із чату. Відповіді без заземлення – це ті відповіді, у яких інструкція не заземлюється в цих джерелах вводу.  

Великі мовні моделі (LLMs) у цьому контексті – це моделі ШІ, які навчаються на великих обсягах текстових даних для прогнозування слів послідовно. LLMs здатні виконувати різноманітні завдання, наприклад створення тексту, зведення, переклад, класифікацію тощо.  

Метапромпт – це програма, яка служить для керівництва поведінкою системи. Частини метапромпту допомагають узгодити поведінку системи з принципами AI Microsoft і очікуваннями користувачів. Наприклад, метапромпт може містити таку лінію, як "спілкування мовою вибору користувача".  

Метод або поєднання методів, призначених для зниження потенційних ризиків, які можуть виникнути внаслідок використання функцій на основі ШІ в Copilot в Bing.  

Текстові, голосові, зображення та/або інші увімкнуті запити, які користувач надсилає до Bing як вхідні дані в модель, яка живить нові генеративні можливості на основі AI в Bing. Наприклад, користувач може ввести такий запит:  

"Я планую поїздку на нашу річницю у вересні. Які місця ми можемо відправитися в межах 3-годинного рейсу з Лондона Хітроу?”  

Текст, який користувач надсилає до служби Bing із рядка пошуку для пошуку в Інтернеті. У цьому документі ми відрізняємо запит (для пошуку в Інтернеті) від запиту (для генеративних можливостей на основі AI в Bing). Наприклад, користувач може ввести такий запит для пошуку в Інтернеті:  

"туристичні напрямки поблизу аеропорту Лондон Хітроу"  

Методи, що використовуються експертами для оцінки обмежень і вразливостей системи, а також для перевірки ефективності запланованих заходів послаблення ризиків. Тестування червоної команди та стрес-тестування використовуються для виявлення потенційних ризиків і відрізняються від систематичного вимірювання ризиків.   

Текст, зображення, діаграми тощо, які Copilot в Bing виводить у відповідь на запит. Синоніми для "відповіді" включають "завершення", "покоління" та "відповідь". Наприклад, Bing може надати таку відповідь на запит, який ми використовували у визначенні "prompt" вище:   

"Вітаємо з річницею! Є багато місць, куди ви можете відправитися, які знаходяться в межах 3-годинного рейсу з Лондона Хітроу. За даними одного джерела, деякі вихідні тікають протягом трьох годин літаком з Лондона Більбао, Копенгаген, Рейк'явік і Стокгольм 1, 2. Інше джерело припускає, що одними з кращих місць, щоб відправитися в Європі у вересні є Краків, Флоренція, і Лісабон 3, 4. Ви також можете перевірити прямі рейси з Лондона Хітроу в різні напрямки і подивитися, що звертається до вас 5. Я сподіваюся, що у вас є чудова поїздка!”  

Цільове використання та нові можливості AI  

Copilot в цільовому середовищі Bing використовується, щоб зв'язати користувачів з відповідними результатами пошуку, переглянути результати з усього Інтернету, щоб знайти та підсумувати відповіді, які шукають користувачі, допомогти користувачам уточнити свої дослідження, щоб отримати відповіді за допомогою чату, і викликати творчість, допомагаючи користувачам створювати вміст. Copilot в генеративному інтерфейсі AI Bing нижче підтримує мету бути AI-powered copilot для Інтернету.  

Зведення. Коли користувачі надсилають пошуковий запит на Copilot в Bing, система Bing обробляє запит, проводить один або кілька пошукових запитів в Інтернеті та використовує найкращі результати пошуку в Інтернеті, щоб створити зведення інформації, яку потрібно представити користувачам. Ці зведення містять посилання, які допомагають користувачам переглядати та легко отримувати доступ до результатів пошуку, які дають змогу обґрунтувати зведення. Зведення можуть відображатися в правій частині сторінки результатів пошуку та в чаті.  

Чат. Крім зведення, користувачі можуть спілкуватися з Copilot в системі Bing за допомогою тексту, зображення або голосового вводу, ставити подальші запитання, щоб уточнити пошук і знайти нову інформацію, а також надіслати запити на створення творчого вмісту. Посилання також включаються в чат, коли Copilot в Bing підсумовує результати пошуку у відповіді.   

Створення творчого вмісту. Як в чаті, так і на сторінці пошуку користувачі можуть створювати вірші, жарти, історії, зображення та інший вміст за допомогою Copilot в Bing.  Зображення створюються Designer (колишня Творець зображень Bing), і користувачі можуть отримати доступ до цієї функції через домашню сторінку Designer, а також сторінку Copilot. 

Як працює Copilot в Bing?  

З Copilot в Bing ми розробили інноваційний підхід, щоб привести найсучасніші LLMs до пошуку в Інтернеті. Коли користувач вводить запит у Copilot в Bing, запит, журнал останніх розмов, метапромпт і найпопулярніші результати пошуку надсилаються як вхідні дані в LLM. Модель створює відповідь за допомогою запиту користувача та журналу останніх розмов, щоб контекстуалізувати запит, метапромпт для узгодження відповідей із принципами AI Microsoft і очікуваннями користувачів, а також результатами пошуку для обґрунтованих відповідей у наявному, високопоставленому вмісті з Інтернету.   

Відповіді надаються користувачам у кількох різних форматах, наприклад у традиційних посиланнях на веб-вміст, зведення, створені за допомогою ШІ, зображення та відповіді в чаті. Зведення та відповіді в чаті, які використовують результати пошуку в Інтернеті, міститимуть посилання та розділ "Докладніше" під відповідями з посиланнями на результати пошуку, які використовувалися для створення відповіді. Користувачі можуть перейти за цими посиланнями, щоб дізнатися більше про тему та інформацію, яка використовується для зведення або відповіді в чаті.    

У досвіді Copilot користувачі можуть здійснювати пошукові запити в Інтернеті розмовно, додаючи контекст до свого запиту та взаємодіючи з відповідями системи для подальшого визначення своїх інтересів пошуку. Наприклад, користувач може ставити подальші запитання, запитувати додаткову уточнювальну інформацію або відповідати на них розмовним способом. У чаті користувачі також можуть вибрати відповідь із попередньо написаних пропозицій, які ми називаємо пропозиціями чату. Ці кнопки з'являються після кожної відповіді Copilot і надають рекомендовані підказки для продовження розмови в чаті. Пропозиції чату також відображаються разом із зведеним вмістом на сторінці результатів пошуку як точкою входу в чат.  

Copilot в Bing також дозволяє користувачеві створювати розповіді, вірші, тексти пісень і зображення за допомогою Bing. Коли Copilot в Bing виявляє намір користувача генерувати творчий вміст (наприклад, запит починається з "написати мені ..."), система, здебільшого, створить вміст, який реагує на запит користувача. Аналогічно, коли Copilot в Bing виявляє намір користувача створити зображення (наприклад, підказка починається з "намалювати мені ..."), система, здебільшого, створить зображення, що реагує на запит користувача. У Visual Пошук в чаті із зображенням, зробленим камерою користувача, завантаженим із пристрою користувача або пов'язаним з Інтернетом, користувачі можуть запропонувати Copilot в Bing зрозуміти контекст, інтерпретувати та відповісти на запитання про зображення.  Користувачі також можуть передавати свої файли в Copilot, щоб інтерпретувати, перетворювати, обробляти або обчислювати інформацію з них. У Microsoft Designer можливості, до яких користувачі можуть отримати доступ через Copilot в Bing, користувачі можуть не тільки створювати зображення за допомогою підказок, а й змінювати їх розмір або перепочинка, а також редагувати, наприклад розмиття фону або зробити кольори яскравішими. 

Користувачі з обліковими записами Microsoft (MSA) тепер також мають можливість підписатися на Copilot Pro, яка пропонує розширені можливості, зокрема прискорену продуктивність, швидше створення зображень зі ШІ, а також незабаром можливість створювати власні gpts Copilot. Copilot Pro зараз доступна в обмежених країнах, і незабаром ми плануємо зробити Copilot Pro доступними на більшій кількості ринків.

У досвіді Copilot користувачі можуть отримати доступ до GPTs Copilot. GpT Copilot, як і Designer GPT, - це спеціальна версія Microsoft Copilot на тему, яка має особливий інтерес для вас, наприклад, фітнес, подорожі та приготування їжі, яка може допомогти перетворити розпливчасті або загальні ідеї в більш конкретні підказки з виходами, включаючи тексти та зображення. У Copilot користувачі можуть бачити доступні GPTs Copilot, і користувачі з обліковими записами Copilot Pro незабаром матимуть доступ до побудовника GPT Copilot, функції, яка дозволяє користувачам створювати та налаштовувати настроюваний GPT Copilot. Відповідальні пом'якшення AI, згадані вище для Copilot в Bing, застосовуються до GPTs Copilot.

Щоб дізнатися більше про те, як працюють gpTs Copilot Pro і Copilot, відвідайте тут.

Copilot в Bing прагне надати різноманітні і вичерпні результати пошуку з його зобов'язанням звільнити і відкрити доступ до інформації. У той же час ми докладаємо зусиль з якості продукту, щоб уникнути ненавмисного поширення потенційно небезпечного вмісту для користувачів. Докладні відомості про те, як Bing оцінює вміст, зокрема про те, як він визначає відповідність і якість і довіру до веб-сторінки, див. в розділі "Рекомендації для веб-майстра Bing".   Докладні відомості про принципи модерації вмісту Bing див. в статті "Як Bing надає результати пошуку".   

У Copilot у Windows Copilot в Bing може працювати з операційною системою Windows, щоб надавати певні навички Windows, такі як змінення теми або фону користувача, а також змінення таких параметрів, як аудіо, Bluetooth і мережі. Ці можливості дають змогу користувачу настроювати свої настройки та покращувати інтерфейс користувача, використовуючи запити природною мовою до LLM. Функції, які стосуються конкретних програм, також можна надавати за допомогою плагінів програм сторонніх постачальників. Вони можуть автоматизувати повторювані завдання та підвищити ефективність користувача. Оскільки інколи користувачі можуть помилятися, наводяться відповідні запити на підтвердження, щоб користувач був останнім арбітром змін, які можна внести. 

Визначення, вимірювання та зниження ризиків  

Як і інші трансформаційні технології, використання переваг ШІ не є безризиковим, а основна частина програми Відповідального AI корпорації Майкрософт призначена для виявлення потенційних ризиків, вимірювання їхньої схильності до виникнення та створення заходів послаблення ризиків для їх усунення. Керуючись нашими принципами ШІ та нашим відповідальним стандартом ШІ, ми прагнули визначити, виміряти та зменшити потенційні ризики та неналежне використання Copilot у Bing, забезпечуючи при цьому трансформативне та вигідне використання, яке надає новий досвід. У наведених нижче розділах описано наш ітеративний підхід до виявлення, вимірювання та зменшення потенційних ризиків.   

На рівні моделі наша робота почалася з дослідницького аналізу GPT-4 наприкінці літа 2022 року. Це включало проведення широкого тестування червоної команди у співпраці з OpenAI. Це тестування було розроблено для оцінки того, як нові технології будуть працювати без будь-яких додаткових гарантій, застосованих до нього. Наш конкретний намір на цей час полягав у виробництві шкідливих відповідей, поверхні потенційних шляхів для неправильного використання, а також виявлення можливостей і обмежень. Наші комбіновані навчання в OpenAI і Microsoft сприяли розвитку моделей і, для нас, у корпорації Майкрософт, повідомили наше розуміння ризиків і сприяли раннім стратегіям пом'якшення наслідків для Copilot в Bing.  

Окрім тестування червоної команди на рівні моделі, багатопрофільна команда експертів провела численні раунди тестування червоної команди на рівні програми на Copilot у Bing AI досвіді, перш ніж зробити їх загальнодоступними в нашому обмеженому попередньому перегляді випуску. Цей процес допоміг нам краще зрозуміти, як система може бути використана змагальними акторами і поліпшити наші пом'якшення. Не змагальні стрес-тестувальники також широко оцінювали нові функції Bing для недоліків і вразливостей. Після випуску нові інтерфейси AI в Bing інтегровано в наявну інфраструктуру вимірювання та тестування виробництва в інженерній організації Bing. Наприклад, червоні тестувальники команд із різних регіонів і фону постійно та систематично намагаються поставити під загрозу систему, а їхні результати використовуються для розширення наборів даних, які Bing використовує для вдосконалення системи.  

Тестування червоної команди та стрес-тестування можуть виявити випадки конкретних ризиків, але у виробничих користувачів будуть мільйони різних видів розмов з Copilot в Bing. Крім того, розмови багатовимірні та контекстні, а виявлення шкідливого вмісту в розмові – це складне завдання. Щоб краще зрозуміти та вирішити потенційні ризики в Copilot у Bing AI досвіді, ми розробили додаткові відповідальні показники AI, характерні для нових ШІ-можливостей для вимірювання потенційних ризиків, таких як джейлбрейки, шкідливий вміст і незаземлений вміст. Ми також ввімкнули вимірювання на масштабі через частково автоматизовані трубопроводи вимірювання. Щоразу, коли змінюються продукти, оновлюються наявні засоби послаблення ризиків або пропонуються нові засоби послаблення ризиків, ми оновлюємо наші вимірювальні трубопроводи, щоб оцінювати як продуктивність продукту, так і відповідальні показники AI.  

Як показовий приклад оновлений частково автоматизований процес вимірювання шкідливого вмісту містить два основні нововведення: моделювання розмов і автоматизована, перевірена людиною примітка до розмови. По-перше, відповідальні фахівці зі ШІ створили шаблони для захоплення структури та вмісту розмов, які можуть призвести до різних типів шкідливого вмісту. Ці шаблони потім були надані розмовному агенту, який взаємодіяв як гіпотетичний користувач з Copilot в Bing, генеруючи імітовані розмови. Щоб визначити, чи містять ці імітовані розмови шкідливий вміст, ми прийняли рекомендації, які зазвичай використовуються експертами-мовознавцями для позначення даних і змінення їх для використання GPT-4 для позначення розмов у масштабі, уточнення рекомендацій, поки не було значної згоди між розмовами з підписами моделі та розмовами, позначеними людиною. Нарешті, ми використали розмови з підписом моделі, щоб обчислити відповідальний показник AI, який фіксує ефективність Copilot у Bing для пом'якшення шкідливого вмісту.   

Наші вимірювальні трубопроводи дають нам змогу швидко виконувати вимірювання потенційних ризиків у масштабі. Коли ми виявляємо нові проблеми протягом періоду попереднього перегляду та поточного тестування червоної команди, ми продовжуємо розширювати набори вимірювань для оцінки додаткових ризиків.  

Оскільки ми визначили потенційні ризики та неправильне використання через такі процеси, як тестування червоної команди та стрес-тестування, і виміряли їх інноваційними підходами, описаними вище, ми розробили додаткові заходи послаблення ризиків для тих, хто використовується для традиційного пошуку. Нижче описано деякі з цих пом'якшень. Ми будемо продовжувати моніторинг Copilot в Bing AI досвід, щоб поліпшити продуктивність продукту і пом'якшення наслідків.  

Поетапний випуск, постійна оцінка. Ми прагнемо постійно вивчати та вдосконалювати наш відповідальний підхід до AI у міру розвитку наших технологій і поведінки користувачів. Наша стратегія інкрементного випуску була основною частиною того, як ми безпечно переміщуємо нашу технологію з лабораторій у світ, і ми прагнемо до навмисного, продуманого процесу, щоб забезпечити переваги Copilot в Bing. Обмеження кількості людей, які мають доступ протягом періоду попереднього перегляду, дозволило нам дізнатися, як люди використовують Copilot в Bing, включно з тим, як люди можуть зловживати ним, щоб ми могли спробувати пом'якшити нові проблеми перед більш широким випуском. Наприклад, ми вимагаємо від користувачів пройти автентифікацію за допомогою свого облікового запису Microsoft, перш ніж отримати доступ до нових можливостей Bing. Неавтентифіковані користувачі можуть отримати доступ лише до обмеженої попередньої версії інтерфейсу. Ці кроки перешкоджають зловживанням і допомагають нам (за потреби) вжити відповідних заходів у відповідь на порушення Правил поведінки.  Ми вносимо зміни в Copilot в Bing щодня, щоб підвищити продуктивність продукту, поліпшити існуючі заходи зниження ризику та впровадити нові заходи послаблення ризиків у відповідь на наші навчання протягом підготовчого періоду.  

Заземлення в результатах пошуку. Як зазначено вище, Copilot в Bing призначений для надання відповідей, підтримуваних інформацією в результатах пошуку в Інтернеті, коли користувачі шукають інформацію. Наприклад, система надається з текстом з кращих результатів пошуку та інструкціями через метапромпт, щоб заземлити свою відповідь. Однак у зведенні вмісту з Інтернету Copilot в Bing може містити інформацію у своїй відповіді, відсутньої в його джерелах вводу. Іншими словами, це може призвести до отримання результатів без заземлення. Наші ранні оцінки показали, що результати без заземлення в чаті можуть бути більш поширеними для певних типів запитів або тем, ніж інші, наприклад запит на математичні обчислення, фінансову або ринкову інформацію (наприклад, прибуток компанії, дані про ефективність акцій) і інформацію, таку як точні дати подій або конкретні ціни на товари. Користувачам слід завжди бути обережними та використовувати своє найкраще рішення під час перегляду зведених результатів пошуку на сторінці результатів пошуку або в чаті. Ми вжили кількох заходів, щоб зменшити ризик того, що користувачі можуть надмірно покладатися на незазгенерований вміст у сценаріях зведення та чаті. Наприклад, відповіді в Copilot в Bing, основані на результатах пошуку, включають посилання на вихідні веб-сайти, щоб користувачі могли перевірити відповідь і дізнатися більше. Користувачам також надається явне повідомлення про те, що вони взаємодіють з системою ШІ, і порадили перевірити матеріали джерела результатів в Інтернеті, щоб допомогти їм використовувати їх найкраще судження.  

Класифікатори на основі ШІ та метапромовування для зменшення потенційних ризиків або неправильного використання. Використання LLMs може призвести до проблемного вмісту, який може призвести до ризиків або неправильного використання. Приклади можуть містити результати, пов'язані з самоушкодженням, насильством, графічним вмістом, інтелектуальною власністю, неточною інформацією, мовою ворожнечі або текстом, який може стосуватися незаконної діяльності. Класифікатори та метапромптінг – це два приклади пом'якшень, які були реалізовані в Copilot в Bing, щоб знизити ризик цих типів вмісту. Класифікатори класифікують текст, щоб позначити різні типи потенційно шкідливого вмісту в пошукових запитах, запитах чату або створених відповідях. Bing використовує класифікатори та фільтри вмісту на основі ШІ, які застосовуються до всіх результатів пошуку та відповідних функцій; ми розробили додаткові підказки класифікаторів і фільтрів вмісту спеціально для вирішення можливих ризиків, підвищених в Copilot в функціях Bing. Позначки призводять до потенційних ризиків, наприклад, що користувач не повертає створений вміст, переадресовує користувача на іншу тему або переспрямовує користувача на традиційний пошук. Метапромптінг передбачає надання вказівок моделі для керівництва її поведінкою, зокрема, щоб система поводилася відповідно до принципів AI корпорації Майкрософт і очікувань користувачів. Наприклад, метапромпт може містити таку лінію, як "спілкування мовою вибору користувача".   

Захист конфіденційності в Visual Пошук в Copilot в Bing. Коли користувачі завантажать зображення в рамках свого чату, Copilot в Bing буде використовувати технологію розмиття обличчя, перш ніж надсилати зображення моделі ШІ. Розмиття обличчя використовується для захисту конфіденційності людей на зображенні. Технологія розмиття обличчя спирається на контекстні підказки, щоб визначити, де розмитися, і спробує розмити всі обличчя. Коли обличчя розмиті, модель ШІ може порівняти введене зображення з зображеннями, доступними для загальнодоступних програм в Інтернеті. В результаті, наприклад, Copilot в Bing може бути в змозі ідентифікувати відомого баскетболіста з фотографії цього гравця на баскетбольному майданчику, створивши числове представлення, яке відображає номер трикотажу гравця, колір трикотажу, наявність баскетбольного обруча тощо. Copilot в Bing не зберігає числові представлення людей із завантажених зображень і не надає їх третім особам. У Copilot у Bing використовуються числові представлення зображень, які користувачі завантажують лише для відповіді на запити користувачів, потім вони видаляються протягом 30 днів після завершення чату.    

Якщо користувач запитує Copilot в Bing інформацію про завантажене зображення, відповіді в чаті можуть відображати вплив розмиття обличчя на здатність моделі надавати інформацію про передане зображення. Наприклад, Copilot у Bing може описати когось як такий, що має розмите обличчя.    

Обмеження розмовного дрейфу. Під час підготовчого періоду ми дізналися, що дуже довгі сеанси чату можуть призвести до повторюваних, некорисних або несумісних з Copilot в передбачуваному тоні Bing. Для вирішення цього розмовного дрейфу ми обмежили кількість поворотів (обміни, які містять як запитання користувача, так і відповідь від Copilot в Bing) за сеанс чату. Ми продовжуємо оцінювати додаткові підходи до пом'якшення цієї проблеми.  

Швидке збагачення. У деяких випадках запит користувача може бути неоднозначним. У такому випадку Copilot в Bing може використовувати LLM, щоб допомогти побудувати більш детальну інформацію в запиті, щоб переконатися, що користувачі отримують потрібну відповідь. Таке оперативне збагачення не спирається ні на знання користувача, ні на попередні пошукові запити, а на модель ШІ. Ці переглянуті запити відображатимуться в журналі чату користувача, і їх, як і інші пошукові запити, можна видалити за допомогою елементів керування в продукті.  

Втручання в дизайн і інтерфейс користувача, відцентровані користувачами. Користувацький дизайн і інтерфейс користувача – це важливий аспект підходу корпорації Майкрософт до відповідального ШІ. Мета полягає в кореневому дизайні продукту в потребах і очікуваннях користувачів. Коли користувачі взаємодіють з Copilot в Bing вперше, ми пропонуємо різні сенсорні точки, призначені, щоб допомогти їм зрозуміти можливості системи, розкрити їм, що Copilot в Bing працює на ШІ, і повідомити про обмеження. Цей досвід розроблений таким чином, щоб допомогти користувачам максимально ефективно використовувати Copilot в Bing і звести до мінімуму ризик надмірної залежності. Елементи досвіду також допомагають користувачам краще зрозуміти Copilot в Bing і їх взаємодію з ним. До них відносяться пропозиції чату, що стосуються відповідального ШІ (наприклад, як Bing використовує AI? Чому Copilot в Bing не відповідатиме на деякі теми?), пояснення обмежень, способи, якими користувачі можуть дізнатися більше про роботу системи та повідомити про відгуки, а також легко навігаційні посилання, які відображаються у відповідях, щоб показати користувачам результати та сторінки, на яких обґрунтовані відповіді.  

Розголошення ШІ. Copilot в Bing надає кілька сенсорних точок для змістовного розкриття ШІ, де користувачі отримують сповіщення про взаємодію з системою ШІ, а також можливості дізнатися більше про Copilot в Bing. Розширення прав і можливостей користувачів із цими знаннями може допомогти їм уникнути надмірного покладатися на ШІ і дізнатися про сильні сторони та обмеження системи.  

Медіа-походження.Microsoft Designer ввімкнула функцію "Облікові дані вмісту", яка використовує криптографічні методи для позначення джерела, або "походження" всіх зображень, створених за допомогою ШІ, створених на Designer. Невидима функція цифрового водяного знака відображає джерело, час і дату вихідного створення, і ці відомості не можна змінити. У технології використовуються стандарти, встановлені Коаліцією за контент і автентичність (C2PA), щоб додати додатковий рівень довіри та прозорості для зображень, створених ШІ. Корпорація Майкрософт є співзасновником C2PA і внесла свій внесок у базову технологію походження цифрового вмісту. 

Умови використання та Правила поведінки. Цей ресурс регулює використання Copilot у Bing. Користувачі повинні дотримуватися Умов використання та Кодексу поведінки, що, серед іншого, інформує їх про допустиме та неприпустиме використання та наслідки порушення умов. Умови використання також надають додаткові розголошення для користувачів і служить зручним посиланням для користувачів, щоб дізнатися про Copilot в Bing.   

Операції та швидке реагування. Ми також використовуємо Copilot в поточних моніторингових і операційних процесах Bing для вирішення, коли Copilot в Bing отримує сигнали, або отримує звіт, що вказує на можливе неправильне використання або порушення Умов використання або Кодексу поведінки.  

Відгуки, моніторинг і нагляд. Copilot в Bing спирається на наявні засоби, які дозволяють користувачам надсилати відгуки та повідомляти про проблеми, які розглядаються операційними групами Microsoft. Операційні процеси Bing також розширилися, щоб пристосувати функції Copilot в Bing, наприклад, оновивши сторінку Report a Concern , щоб включити нові типи вмісту, який користувачі створюють за допомогою моделі.   

Наш підхід до виявлення, вимірювання та зниження ризиків і надалі змінюватиметься, коли ми дізнаємося більше, і ми вже вдосконалюємо їх на основі відгуків, зібраних протягом підготовчого періоду.     

Автоматичне виявлення вмісту. Коли користувачі завантажують зображення в рамках свого чату, Copilot в Bing розгортає інструменти для виявлення зображень сексуальної експлуатації та насильства над дітьми (CSEAI), особливо технологію хеш-зіставлення PhotoDNA. Корпорація Майкрософт розробила PhotoDNA, щоб допомогти знайти дублікати відомих CSEAI. Корпорація Майкрософт повідомляє про всі очевидні CSEAI Національному центру зниклих та експлуатованих дітей (NCMEC), як того вимагає законодавство США. Коли користувачі завантажують файли для аналізу або обробки, Copilot розгортає автоматизоване сканування, щоб виявити вміст, який може призвести до ризиків або неправильного використання, наприклад тексту, який може пов'язати з незаконною діяльністю або зловмисним кодом.

Захист конфіденційності  

Давня віра Корпорації Майкрософт у те, що конфіденційність є фундаментальним правом людини, проінформувала про кожен етап розробки та розгортання Copilot у службі Bing. Наші зобов'язання щодо захисту конфіденційності всіх користувачів, зокрема надання користувачам прозорості та контролю над своїми даними та інтеграції конфіденційності за допомогою мінімізації даних і обмеження мети, є основоположними для Copilot у Bing. У міру розвитку нашого підходу до надання Copilot в генеративних інтерфейсах AI Bing, ми будемо постійно вивчати, як краще захистити конфіденційність. Цей документ буде оновлено, як ми це робимо. Докладні відомості про те, як корпорація Майкрософт захищає конфіденційність наших користувачів, див. в Декларації корпорації Майкрософт про конфіденційність.  

У Copilot у Windows навички Windows можуть, як частина їхніх функцій, ділитися інформацією про користувача з розмовою в чаті. Ця дія підлягає затвердженню користувача, і відображаються запити на підтвердження намірів користувача перед наданням спільного доступу до відомостей про користувача розмові в чаті.

Корпорація Майкрософт продовжує розглядати потреби дітей і молоді в рамках оцінки ризиків нових функцій генеративного ШІ в Копілоті в Bing. Усі облікові записи Microsoft дитини, які ідентифікують користувача віком до 13 років або як інше зазначено місцевим законодавством, не можуть увійти в систему, щоб отримати доступ до повної нової версії Bing.   

Як описано вище, для всіх користувачів ми впровадили засоби захисту, які пом'якшуватимуть потенційно шкідливий вміст. У Copilot в Bing результати встановлюються як в суворому режимі Bing SafeSearch, який має найвищий рівень захисту безпеки в основному пошуку Bing, отже, запобігаючи доступу користувачів, включаючи користувачів підлітків, до потенційно шкідливого вмісту. На додаток до інформації, наданої в цьому документі, і в наших запитаннях і відповідях щодо функцій чату, додаткові відомості про те, як працює Copilot в Bing, щоб уникнути реагування з неочікуваним образливим вмістом у результатах пошуку, доступні тут.  

Корпорація Майкрософт зобов'язалася не надавати персоналізовану рекламу на основі поведінки в Інтернеті дітям, дата народження яких в обліковому записі Microsoft визначає їх як такі, що не досягли 18 років. Цей важливий захист поширюється на рекламу в Copilot в функціях Bing. Користувачі можуть бачити контекстну рекламу на основі запиту або запиту, який використовується для взаємодії з Bing.  

Щоб розблокувати трансформативний потенціал генеративного ШІ, ми повинні побудувати довіру до цієї технології, надавши окремим особам можливість зрозуміти, як використовуються їхні дані, і надати їм змістовний вибір і елементи керування своїми даними. Copilot в Bing призначений для визначення пріоритетів людського агентства, шляхом надання інформації про те, як працює продукт, а також його обмежень, а також шляхом розширення нашого надійного вибору споживачів і елементів керування до Copilot в функціях Bing.   

Декларація корпорації Майкрософт про конфіденційність надає інформацію про наші прозорі методи забезпечення конфіденційності для захисту наших клієнтів, а також визначає відомості про елементи керування, які дають змогу нашим користувачам переглядати свої особисті дані та керувати ними. Щоб користувачі мали потрібну інформацію, коли взаємодіють із новими розмовними функціями Bing, розголошення в продукті інформує користувачів про те, що вони взаємодіють з продуктом штучного інтелекта, а також ми надаємо посилання на подальші запитання й пояснення щодо роботи цих функцій. Корпорація Майкрософт продовжуватиме прослуховувати відгуки користувачів і додаватиме докладні відомості про функції розмов Bing відповідно до розуміння способу роботи продукту.   

Корпорація Майкрософт також надає своїм користувачам надійні інструменти для здійснення своїх прав на доступ до своїх особистих даних. Для даних, які збирає Copilot у Bing, зокрема через запити користувачів і запити, приладна дошка конфіденційності Microsoft надає автентифікованим (увійшовши) користувачам інструменти для здійснення своїх прав суб'єкта даних, зокрема надання користувачам можливості переглядати, експортувати та видаляти збережений журнал розмов. Корпорація Майкрософт продовжує відгуки про те, як вони хочуть керувати своїм новим інтерфейсом Bing, зокрема за допомогою можливості керування даними в контексті.   

Copilot в Bing також шанує запити під європейським правом бути забутими, після процесу, який корпорація Майкрософт розробила і уточнила для традиційних функцій пошуку Bing. Усі користувачі можуть повідомити про проблеми, які стосуються створеного вмісту та відповідей тут, а наші європейські користувачі можуть використовувати цю форму для надсилання запитів на блокування результатів пошуку в Європі під правом бути забутими.   

Copilot в Bing буде вшановувати варіанти конфіденційності користувачів, зокрема ті, які раніше були зроблені в Bing, наприклад згоду на збирання та використання даних, які надсилаються за допомогою банерів файлів cookie та елементів керування, доступних на приладній дошці конфіденційності Microsoft. Щоб забезпечити автономію користувачів і свободу вибору при прийнятті обґрунтованих рішень, ми використали внутрішній процес перевірки, щоб ретельно вивчити, як користувачі отримують вибір. 

Окрім елементів керування, доступних через приладну дошку конфіденційності Microsoft, які дають змогу користувачам переглядати, експортувати та видаляти журнал пошуку, зокрема компоненти історії чатів, автентифіковані користувачі, які ввімкнули функцію "Журнал чату" в продукті, можуть переглядати, отримувати доступ до історії чатів і завантажувати їх за допомогою елементів керування в продукті. Користувачі можуть очистити певні чати з журналу чату або повністю вимкнути функцію журналу чату в будь-який час, відвідавши сторінку настройок Bing. Користувачі також можуть вибрати, чи дозволити персоналізації отримувати доступ до більш індивідуального налаштування за допомогою персоналізованих відповідей. Користувачі можуть відмовитися від персоналізації в будь-який час у настройках чату на сторінці настройок Bing.  Очищення певних чатів із журналу чату запобігає їх використанню для персоналізації.  
 
Докладні відомості про історію чату та персоналізацію надано користувачам у Copilot у запитаннях і відповідях про Bing. 

Copilot в Bing був побудований з урахуванням конфіденційності, так що особисті дані збираються і використовуються тільки в міру необхідності і зберігається не більше, ніж необхідно. Як зазначалося вище, Visual Пошук в Copilot в Bing розгортає механізм, який розмиває обличчя на зображеннях під час передавання користувачами, щоб зображення обличчя не оброблялися та не зберігалися далі. Докладні відомості про персональні дані, які збирає Bing, про те, як вони використовуються, а також про те, як вони зберігаються та видаляються, див. в Декларації корпорації Майкрософт про конфіденційність, яка також надає відомості про нові функції чату Bing.   

Copilot в Bing має політики збереження та видалення даних, щоб забезпечити зберігання особистих даних, зібраних за допомогою функцій чату Bing, лише за потреби.   

Ми будемо продовжувати вивчати і розвивати наш підхід у забезпеченні Copilot в Bing, і, як ми це робимо, ми будемо продовжувати працювати над дисциплінами, щоб узгодити наші інновації AI з людськими цінностями і основними правами, включаючи захист молодих користувачів і конфіденційність.   

Copilot із комерційним захистом даних 

Copilot з комерційним захистом даних, раніше відомий як Bing Chat Enterprise ("BCE"), був випущений корпорацією Майкрософт у безкоштовній загальнодоступній підготовчій версії в липні 2023 року як безкоштовний додатковий компонент для певних клієнтів M365. Copilot із комерційним захистом даних – це розширений інтерфейс пошуку в Інтернеті для корпоративних користувачів. 

Як і у випадку з Copilot в Bing, коли Copilot з комерційним захистом даних кінцевий користувач вводить запит в інтерфейс, запит, негайна розмова, найкращі результати пошуку та метапромпт надсилаються як вхідні дані в LLM. Модель створює відповідь за допомогою оперативного та негайного журналу розмов, щоб контекстуалізувати запит, метапромпт для узгодження відповідей із принципами AI Microsoft і очікуваннями користувачів, а також результатами пошуку для обґрунтованих відповідей у наявному, високопоставленому вмісті з Інтернету. Це працює так само, як Copilot в Bing, як описано вище в цьому документі, за винятком того, що Copilot із захистом комерційних даних залежить лише від негайної історії розмов (а не останнього журналу розмов) через те, що збережений журнал чату не підтримується функцією. Designer та Visual Пошук тепер доступні в цій версії. 

Як і інші трансформаційні технології, використання переваг ШІ не є безризиковим, а основна частина програми Відповідального AI корпорації Майкрософт призначена для виявлення потенційних ризиків, вимірювання їхньої схильності до виникнення та створення заходів послаблення ризиків для їх усунення. Знову ж таки, наведений вище опис зусиль Корпорації Майкрософт щодо виявлення, вимірювання та зменшення потенційних ризиків для Copilot в Bing також застосовується до цієї версії, з деякими роз'ясненнями щодо пом'якшення наслідків, описаних нижче: 

Поетапний випуск, постійна оцінка. Так само, як і з Copilot Bing, для Copilot з комерційним захистом даних ми також взяли підхід інкрементного випуску. 18 липня 2023 року Copilot з комерційним захистом даних став доступний як безкоштовний попередній перегляд для відповідних корпоративних клієнтів з певними обліковими записами M365, які мають увімкнути для своїх корпоративних користувачів. Через тридцять (30) днів після повідомлення відповідних корпоративних клієнтів, Copilot з комерційним захистом даних став "за замовчуванням" для тих же клієнтів. Copilot з комерційним захистом даних також з тих пір став доступним для конкретних облікових записів навчального закладу M365. Copilot з комерційним захистом даних став загальнодоступним для деяких корпоративних клієнтів 1 грудня 2023 року. У майбутньому ми плануємо розширити доступ до Copilot з комерційним захистом даних для більш Ідентифікатор Microsoft Entra користувачів.

Умови використання та Правила поведінки. Кінцеві користувачі Copilot із комерційним захистом даних повинні дотримуватися Умов використання Кінцевим користувачем. Ці Умови використання інформують користувачів про допустиме та неприпустиме використання та наслідки порушення умов.  

Операції та швидке реагування. Ми також використовуємо Copilot в поточних моніторингових і операційних процесах Bing для вирішення, коли Copilot з комерційним захистом даних отримує сигнали або отримує звіт, що вказує на можливе неправильне використання або порушення Умов використання Користувачем

Відгуки, моніторинг і нагляд. Copilot з комерційним захистом даних використовує такий же інструмент, як і Copilot в Bing, щоб користувачі надсилали відгуки та повідомляли про проблеми, які розглядаються операційними групами Microsoft. Copilot в операційних процесах Bing також розширився, щоб пристосувати функції в Copilot з комерційними можливостями захисту даних, наприклад, оновивши сторінку Report a Concern, щоб включити нові типи вмісту, який користувачі генерують за допомогою моделі.  

Щоб користувачі мали необхідну інформацію, коли взаємодіють з Copilot із комерційним захистом даних, у нижній частині цього документа доступна документація продукту, зокрема сторінки запитань і відповідей і докладні відомості. 

Запити та відповіді, створені кінцевими користувачами в Copilot із комерційним захистом даних, обробляються та зберігаються відповідно до корпоративних стандартів обробки даних. Copilot з комерційною пропозицією захисту даних в даний час доступний тільки для корпоративних клієнтів і їх автентифікованих дорослих кінцевих користувачів, тому ми не очікуємо, що діти або молодь будуть кінцевими користувачами Copilot з комерційним захистом даних в цей час. Крім того, Copilot з комерційним захистом даних не надає будь-яку рекламу, орієнтовану на поведінку, кінцевим користувачам. Натомість будь-які рекламні оголошення, які відображаються, – це лише реклама, яка відповідає контексту.  

Докладніше

Цей документ є частиною більш широких зусиль у корпорації Майкрософт, щоб на практиці втілити в життя наші принципи ШІ. Докладні відомості див. в статті:

Підхід Корпорації Майкрософт до відповідального ШІ

Відповідальний стандарт AI корпорації Майкрософт

Відповідальні ресурси корпорації Майкрософт зі ШІ  

Навчальні курси Microsoft Azure з відповідального ШІ  

Про цей документ  

© Microsoft 2023. Усі права захищено. Цей документ надано "як є" та виключно для ознайомлення. Відомості та подання, виражені в цьому документі, включно з URL-адресою та іншими посиланнями на веб-сайт в Інтернеті, можуть змінюватися без попередження. Ви несете ризик його використання. Деякі приклади призначені лише для ілюстрацій і є вигаданими. Жоден справжній зв'язок не призначений або не припускається.  

Потрібна додаткова довідка?

Потрібні додаткові параметри?

Ознайомтеся з перевагами передплати, перегляньте навчальні курси, дізнайтесь, як захистити свій пристрій тощо.

Спільноти допомагають ставити запитання й відповідати на них, надавати відгуки та дізнаватися думки висококваліфікованих експертів.

Чи ця інформація була корисною?

Наскільки ви задоволені якістю мови?
Що вплинуло на ваші враження?
Натиснувши кнопку "Надіслати", ви надасте свій відгук для покращення продуктів і служб Microsoft. Ваш ІТ-адміністратор зможе збирати ці дані. Декларація про конфіденційність.

Дякуємо за відгук!

×