Останнє оновлення: травень 2025 р.
Що таке Примітка про прозорість?
Система ШІ включає не тільки технологію, але і людей, які будуть її використовувати, людей, які будуть порушені нею, і середовище, в якому вона розгортається. Нотатки про прозорість корпорації Майкрософт допоможуть вам зрозуміти, як працює технологія ШІ, що стоїть за Copilot, вибрані нами рішення, які впливають на продуктивність і поведінку системи, а також важливість мислення про всю систему, щоб користувачі Copilot могли взяти під контроль власний досвід і зрозуміти кроки, які ми робимо, щоб забезпечити безпечний і безпечний продукт.
Нотатки корпорації Майкрософт про прозорість – це частина ширших зусиль корпорації Майкрософт щодо вдосконалення принципів AI. Докладні відомості див. в статті Принципи ШІ корпорації Майкрософт.
Основні відомості про Microsoft Copilot
Вступ
Copilot - це інтерфейс на рівні ШІ, який допоможе користувачам надати інформацію, яку вони шукають, коли вони готові підтримати користувачів у відповіді на широкий спектр питань незалежно від ситуації або теми. Оновлений Copilot виходить за рамки відповідей на основні запити видобування інформації і фокусується на створенні вмісту, щоб запропонувати більш проактивну підтримку користувачам при завершенні завдань. Ми постійно розуміємо, як ШІ має потенціал, щоб допомогти людям вчитися, виявляти і бути більш творчими, що вимагало від нас побудувати інший тип продукту. Новий досвід Copilot прагне стати новим типом досвіду, який є відкритим і динамічним для кращого задоволення потреб користувачів таким чином, що є більш інтуїтивним.
У корпорації Майкрософт ми серйозно ставимося до наших зобов'язань щодо відповідального за ШІ. Оновлений досвід Copilot розроблено відповідно до принципів AI корпорації Майкрософт, відповідального Standard AI корпорації Майкрософт, а також у партнерстві з відповідальними експертами зі ШІ в усій компанії, зокрема з Microsoft Office відповідального AI, нашими інженерними командами, Microsoft Research і Aether. Ви можете дізнатися більше про відповідальний ШІ в корпорації Майкрософт тут.
У цьому документі ми описуємо наш підхід до відповідального ШІ для Copilot. Напередодні випуску ми використовували найсучасніші методи Корпорації Майкрософт, щоб зіставити, виміряти та керувати потенційними ризиками та неналежним чином використовувати систему, а також забезпечити її переваги для користувачів. Оскільки ми продовжуємо розвиватися в Copilot, ми також продовжуємо вчитися і покращувати наші відповідальні зусилля зі ШІ. Цей документ періодично оновлюватиметься, щоб повідомити наші процеси та методи, що розвиваються.
Ключові терміни
Класифікаторами Моделі машинного навчання, які допомагають сортувати дані за позначеними класами або категоріями інформації. В оновленому досвіді Copilot один зі способів, в якому ми використовуємо класифікатори, полягає в тому, щоб допомогти виявити потенційно шкідливий вміст, надісланий користувачами, або створений системою для пом'якшення покоління цього вмісту та неналежного використання або зловживання системою.
Заземлення Для певних розмов, де користувачі шукають інформацію, Copilot обґрунтовано в результатах пошуку в Інтернеті. Це означає, що Copilot зосереджує свою відповідь на високопоставлений вміст з Інтернету та надає посилання на гіперпосилання після створених текстових відповідей. Зверніть увагу, що наразі запити користувачів у голосовому режимі не ініціюватимуть пошук в Інтернеті, тому жодні відповіді не включатимуть посилання.
Великі мовні моделі (LLMs) Великі мовні моделі (LLMs) у цьому контексті – це моделі ШІ, які навчаються на великих обсягах текстових даних для прогнозування слів послідовно. LlMs може виконувати різні завдання, наприклад створення тексту, зведення, переклад, класифікацію тощо.
Пом'якшення Метод або поєднання методів, призначених для зниження потенційних ризиків, які можуть виникнути внаслідок використання функцій ШІ в Copilot.
Багатомодальні моделі (МММ) Багатомодальні моделі (МММ) – це моделі ШІ, які навчаються на різних типах даних, таких як текст, зображення або аудіо. Ці моделі можуть виконувати різноманітні завдання, наприклад писати текст, описувати зображення, розпізнавати мовлення та знаходити інформацію в різних типах даних.
Підказки Вхідні дані у вигляді тексту, зображень та/або аудіо, які користувач надсилає до Copilot для взаємодії з функціями ШІ в Copilot.
Червоне об'єднування Методи, що використовуються експертами для оцінки обмежень і вразливостей системи, а також для перевірки ефективності запланованих заходів послаблення ризиків. Тестування червоної команди включає тестувальників, які приймають як доброякісні, так і змагальні персони для виявлення потенційних ризиків і відрізняються від систематичного вимірювання ризиків.
Відповіді Текст, зображення або аудіо, які Copilot виводить у відповідь на запит або як частину вперед і назад з користувачем. Синоніми для відповіді: "завершення", "покоління" та "відповідь".
Малі мовні моделі (SLMs) Малі мовні моделі (SLMs) у цьому контексті – це моделі ШІ, які навчаються на менших, більш важливих обсягах даних порівняно з великими мовними моделями. Незважаючи на менший розмір, slms можуть виконувати різноманітні завдання, як-от створення тексту, зведення, переклад і класифікація. Хоча вони можуть не відповідати широким можливостям LLMs, slms часто є більш ефективними ресурсами та можуть бути високоефективними для конкретних цільових програм.
Системне повідомлення Системне повідомлення (іноді його називають метапромптом) – це програма, яка служить для керівництва поведінкою системи. Частини системного повідомлення допомагають узгодити поведінку системи за принципами AI Microsoft і очікуваннями користувачів. Наприклад, системне повідомлення може містити рядок "не надавати інформацію або створювати вміст, який може завдати фізичної, емоційної або фінансової шкоди".
Можливості
Поведінка системи
У Copilot ми розробили інноваційний підхід, який дає користувачам більш персоналізований інтерфейс ШІ для привабливого досвіду, який може допомогти користувачам виконувати різноманітні завдання. Цей інноваційний підхід використовує різноманітні передові технології, наприклад мовні та багатомодальні моделі від корпорації Майкрософт, OpenAI та інших розробників моделей. Ми працювали над впровадженням методів безпеки для моделей, що лежать в основі нового досвіду Copilot до публічного випуску, щоб розробити спеціальний набір можливостей і поведінки, які забезпечують розширений досвід Copilot. В оновленому Copilot користувачі можуть надсилати запити текстом природною мовою або голосом. Відповіді надаються користувачам у кількох різних форматах, наприклад відповідях на чат у текстовій формі (за потреби з традиційними посиланнями на веб-вміст) і зображеннями (якщо запит на зображення було зроблено в рамках запиту). Якщо користувачі надсилають запити природними мовами в режимі голосового керування Copilot, вони отримають звукові відповіді.
Коли користувач вводить запит у Copilot, запит, журнал розмов і системне повідомлення надсилаються через кілька засобів вводу, щоб відфільтрувати шкідливий або неприйнятний вміст. Це важливий перший крок для підвищення продуктивності моделі та зменшення ситуації, в яких користувачі можуть намагатися спонукати модель таким чином, щоб вона була небезпечною. Коли запит пройде через вхідні класифікатори, він надсилається до SLM, щоб визначити, чи вимагає запит заземлення даних з Інтернету та яка мовна модель має відповідати на запит. Усі моделі створюють відповідь, використовуючи запит користувача та журнал останніх розмов, щоб контекстно використовувати запит, системне повідомлення, щоб узгодити відповіді за принципами AI Microsoft і очікуваннями користувачів, а також за необхідності узгоджувати відповіді з результатами пошуку відповідно до основних відповідей у наявному, високопоставленому вмісті з Інтернету.
Відповіді надаються користувачам у кількох різних форматах, таких як відповіді на чат у текстовій формі, традиційні посилання на веб-вміст, зображення та відповіді на аудіо. Якщо відповіді надаються у формі тексту та відповіді заземлюються в даних з Інтернету, результат містить посилання, наведені під текстом, які містять гіперпосилання, щоб користувачі могли отримати доступ до веб-сайтів, які використовувалися для створення відповіді, і дізнатися більше про цю статтю звідти.
Copilot також допомагає користувачам створювати нові історії, вірші, тексти пісень та зображення. Коли Copilot виявляє намір користувача генерувати творчий вміст (наприклад, запит користувача, який починається з "написати мені ..."), система, здебільшого, створить вміст, який реагує на запит користувача. Аналогічним чином, коли Copilot виявляє намір користувача створити зображення (наприклад, запит користувача, який починається з "намалювати мені ..."), Copilot, в більшості випадків, створить зображення, що реагує на запит користувача. Коли Copilot виявляє намір користувача змінити передане зображення (наприклад, запит користувача, який починається з "додати ..."), Copilot, здебільшого, змінить зображення, яке реагує на запит користувача. Copilot може не відповідати на творчий вміст, коли запит користувача містить певні терміни, які можуть призвести до проблемного вмісту.
Користувачі з обліковими записами Microsoft (MSA) тепер також мають можливість підписатися на Copilot Pro, яка пропонує розширені можливості, зокрема прискорену продуктивність, використання можливостей Copilot Voice протягом довших періодів часу, а в деяких випадках – доступ до нових експериментальних функцій. Copilot Pro зараз доступна в обмеженій кількості країн, і незабаром ми плануємо зробити Copilot Pro доступними на більшій кількості ринків.
Передбачувана поведінка безпеки
Наша мета для Copilot - бути корисним для користувачів. Використовуючи практичні поради з інших продуктів і служб microsoft generative AI, ми прагнемо обмежити Copilot від створення проблемного вмісту та підвищити ймовірність безпечного та позитивного інтерфейсу користувача. Хоча ми вжили заходів для зменшення ризиків, генеративні моделі AI, такі як ті, що стоять за Copilot, є імовірними і можуть робити помилки, тобто пом'якшення іноді можуть не блокувати шкідливі запити користувачів або відповіді, створені ШІ. Якщо ви зіткнулися зі шкідливим або неочікуваним вмістом під час використання Copilot, повідомте нам про це, надавши відгук, щоб ми могли й надалі покращувати роботу.
Інциденти використання
Цільове використання
Copilot призначений для підтримки користувачів у відповіді на широкий спектр питань, незалежно від ситуації або теми. Користувачі можуть взаємодіяти з Copilot, використовуючи текст, зображення та аудіовходи, де взаємодії мають на меті відчути себе більш природними розмовами з системою AI. Крім того, якщо користувачі взаємодіють з Copilot через текст, щоб шукати конкретну інформацію на теми, де Copilot може вимагати більше інформації, щоб отримати більш точну відповідь, досвід призначений для підключення користувачів до відповідних результатів пошуку, перегляду результатів з усього Інтернету та зведення інформації, яку шукають користувачі. У Copilot користувачі можуть:
-
Підсумовуйте інформацію в реальному часі під час спілкування за допомогою тексту. Коли користувачі взаємодіють з Copilot за допомогою тексту, система виконуватиме веб-пошуки, якщо йому потрібна додаткова інформація, і використовуватиме найпопулярніші результати пошуку в Інтернеті, щоб створити зведення інформації, яку потрібно представити користувачам. Ці зведення включають посилання на веб-сторінки, які допомагають користувачам переглядати та легко отримувати доступ до джерел для результатів пошуку, які допомогли обґрунтувати зведення Copilot. Якщо потрібно дізнатися більше, користувачі можуть перейти за цими посиланнями безпосередньо до джерела.
-
Спілкуйтеся в чаті з системою AI за допомогою тексту. Користувачі можуть спілкуватися з Copilot за допомогою тексту та ставити подальші запитання, щоб знайти нову інформацію та отримати підтримку на різні теми.
-
Інтерфейс за допомогою ШІ за допомогою голосу. Copilot може не тільки отримувати аудіовихід, але і виробляти аудіовихід в одному з чотирьох голосів, вибраних користувачами. Можливості аудіо-аудіо дають змогу користувачам взаємодіяти з Copilot більш природним і плавним способом.
-
Отримуйте вміст новин, який можна засвоюється. Користувачі можуть використовувати Copilot, щоб отримувати зведення новин, погоди та інших оновлень на основі вибраних тематичних областей за допомогою функції Copilot Daily і слухати ці брифінги у форматі подкастів. Ця функція отримуватиме вміст із авторизованих джерел, які мають угоди з корпорацією Майкрософт.
-
Отримайте довідку з створення нових ідей. Кожен раз, коли користувачі взаємодіють з досвідом Copilot вони побачать набір карт, які вони можуть натиснути, щоб почати спілкуватися з Copilot про корисні та цікаві теми. Якщо користувачі взаємодіяли з іншими споживчими службами Microsoft, картки будуть персоналізовані відповідно до наших політик конфіденційності. З часом картки в Copilot можуть бути персоналізовані на основі історії чату користувача. Користувачі можуть відмовитися від персоналізації в будь-який час у настройках, і ми все ще вивчаємо варіанти персоналізації пізніше для користувачів у ЄЕЗ (Європейська економічна зона) і Великобританії.
-
Створюй творчий вміст. Спілкуючись з Copilot, користувачі можуть створювати нові вірші, жарти, історії, зображення та інший контент за допомогою досвіду Copilot. Copilot також може редагувати зображення, завантажені користувачами, якщо це буде запропоновано.
-
Виконання завдань на пристроях з Android.Користувачі можуть взаємодіяти з Copilot через платформу Android за допомогою голосу для виконання певних завдань. Ці завдання – встановлення таймерів і будильників, здійснення телефонних дзвінків, надсилання SMS-повідомлень і замовлення Uber. Користувачі повинні підтвердити телефонний виклик, SMS-повідомлення та замовлення Uber до завершення завдань.
-
Допоможіть у дослідженні. Copilot може виконувати дослідницькі завдання, надаючи поглиблені ресурси, пропонуючи докладні розбивки тем і зв'язування з джерелами, щоб допомогти користувачам вийти за рамки швидких відповідей на більш складні запити.
-
Досліджуйте світ за допомогою Бачення Copilot. Copilot може переглядати ваш екран або канал мобільної камери та використовувати свій голос, щоб відповідати на запитання та взаємодіяти з вами. Copilot може миттєво сканувати, аналізувати та пропонувати аналітичні дані та пропозиції в режимі реального часу, щоб допомогти вам під час роботи, перегляду або вивчення світу. Бачення Copilot доступна в Edge, Windows, iOS і Android.
Зауваження щодо вибору інших випадків використання
Ми рекомендуємо користувачам переглянути весь вміст, перш ніж приймати рішення або діяти на основі відповідей Copilot, оскільки ШІ може робити помилки. Крім того, існують певні сценарії, які ми рекомендуємо уникати або які відрізняються від наших Умов використання. Наприклад, корпорація Майкрософт не дозволяє використовувати Copilot у зв'язку з незаконною діяльністю або з будь-якою метою, призначеною для сприяння незаконній діяльності.
Обмеження
Мова, зображення та аудіомоделі, які під досвідом Copilot можуть включати навчальні дані, які можуть відображати соціальні упередження, що, у свою чергу, потенційно може призвести до поведінки Copilot таким чином, що сприймається як несправедливий, ненадійний або образливий. Незважаючи на інтенсивне навчання моделі та точне налаштування безпеки, а також впровадження відповідальних систем керування ШІ та безпеки, які ми розміщуємо на навчальних даних, запитах користувачів і виходах моделей, послуги, керовані ШІ, є незворотніми та доступні. Це ускладнює комплексне блокування всього неприйнятного вмісту, що призводить до ризиків, пов'язаних із упередженістю, стереотипами, беззастережністю або іншими типами шкоди, які можуть з'явитися у вмісті, створеному за ШІ. Деякі способи, якими ці обмеження можуть проявлятися в досвіді Copilot, перелічені тут.
-
Стереотип: Досвід Copilot потенційно може посилити стереотипи. Наприклад, під час перекладу "Він медсестра" і "Вона лікар" на гендерну мову, таку як турецька, а потім назад на англійську, Copilot може ненавмисно дати стереотипні (і неправильні) результати "Вона медсестра" і "Він лікар". Іншим прикладом є створення зображення на основі підказки "Діти без батька", система може генерувати зображення дітей лише з однієї раси або етнічної приналежності, посилюючи шкідливі стереотипи, які можуть існувати на загальнодоступних зображеннях, що використовуються для навчання базових моделей. Copilot також може підсилювати стереотипи на основі вмісту вхідного зображення користувача, покладаючись на компоненти зображення та роблячи припущення, які можуть бути неправдою. Ми впровадили заходи зниження ризику вмісту, який містить образливі стереотипи, включно з класифікаторами вводу та виводу, точними моделями та системними повідомленнями.
-
Перепредставлення та недопредставлення: Copilot може потенційно надмірно або недопредставляти групи людей або навіть взагалі не представляти їх у своїх відповідях. Наприклад, якщо текстові підказки зі словом "гей" виявляються як потенційно шкідливі або образливі, це може призвести до недопредставлення законних поколінь про ЛГБТІА+спільноту. На додаток до включення класифікаторів вводу та виводу, точних моделей, а також системних повідомлень, ми використовуємо оперативне збагачення в Designer як одне з кількох заходів зниження ризику вмісту, який надмірно або недостатньо представляє групи людей.
-
Неприйнятний або образливий вміст. Досвід Copilot потенційно може призвести до інших типів неприйнятного або образливого вмісту. Приклади включають можливість створення вмісту в одній модальності (наприклад, аудіо), неприйнятній у контексті його запиту або в порівнянні з тим самим результатом в іншій модальності (наприклад, тексті). Інші приклади включають зображення, створені штучним інтелектом, які потенційно містять шкідливі артефакти, такі як символи ненависті, вміст, який стосується спірних, суперечливих або ідеологічно поляризуючих тем, а також вміст, що звинувачується в сексуальному вмісті, який ухиляється від фільтрів вмісту, пов'язаного з сексуальним характером. Ми вклали послаблення ризиків, щоб знизити ризик поколінь, які містять неприйнятний або образливий вміст, наприклад класифікатори вводу та виводу, точно налаштовані моделі та системні повідомлення.
-
Інформаційна надійність: Хоча Copilot прагне відповісти надійними джерелами, якщо це необхідно, ШІ може робити помилки. Він потенційно може генерувати нечутливий вміст або сфабрикувати вміст, який може звучати розумно, але насправді неточно. Навіть коли ви креслите відповіді на веб-дані з високим рівнем сертифікації, відповіді можуть спотворити цей вміст таким чином, щоб він був не зовсім точним або надійним. Ми нагадуємо користувачам через інтерфейс користувача та в документації, як це, що Copilot може робити помилки. Ми також продовжуємо виховувати користувачів про обмеження AI, такі як заохочення їх до подвійної перевірки фактів, перш ніж приймати рішення або діяти на основі відповідей Copilot. Коли користувачі взаємодіють з Copilot через текст, він буде намагатися заземлити себе в високоякісних веб-даних, щоб знизити ризик того, що покоління не є без заземленням.
-
Багатомовна продуктивність: Можуть бути варіації продуктивності для різних мов, при цьому англійська працює найкраще під час випуску оновленого Copilot. Підвищення продуктивності для різних мов – це ключова область інвестицій, а останні моделі призвели до підвищення продуктивності.
-
Обмеження звуку. Для аудіомодій може бути запроваджено інші обмеження. Загалом, акустична якість вводу мовлення, немовний шум, словниковий запас, акценти та помилки вставлення також можуть вплинути на те, чи обробляє Copilot та реагує на аудіовихід користувача задовільно. Крім того, оскільки запит користувача при використанні Copilot Voice не буде ініціювати пошук в Інтернеті, Copilot може не мати можливості відповісти на поточні події в голосовому режимі.
-
Залежність від підключення до Інтернету: оновлений досвід Copilot використовує підключення до Інтернету, щоб функціонувати. Перебої в підключенні можуть вплинути на доступність і продуктивність служби.
Продуктивність системи
У багатьох системах ШІ продуктивність часто визначається відносно точності (тобто, як часто система ШІ пропонує правильний прогноз або вихід). З Copilot ми зосереджені на Copilot як помічник на основі ШІ, який відображає вподобання користувача. Таким чином, два різних користувачі можуть дивитися на один і той же результат і мати різні думки про те, наскільки корисно або актуально це для їх унікальної ситуації і очікувань, що означає, що продуктивність для цих систем повинна бути більш гнучко визначена. Ми вважаємо, що продуктивність означає, що програма працює належним чином, як користувачі очікують.
Практичні поради з підвищення продуктивності системи
Взаємодійте з інтерфейсом, використовуючи природну розмовну мову. Взаємодія з Copilot таким чином, що зручно для користувача є ключем до отримання кращих результатів через досвід. Подібно до методів прийняття, щоб допомогти людям ефективно спілкуватися у своєму повсякденному житті, взаємодія з Copilot як помічник на основі ШІ або через текст або мову, яка знайома користувачу, може допомогти викликати кращі результати.
Користувацький досвід і впровадження. Ефективне використання Copilot вимагає від користувачів зрозуміти його можливості і обмеження. Можливо, є крива навчання, і користувачі можуть забажати посилатися на різні ресурси Copilot (наприклад, цей документ і наші запитання й відповіді про Copilot), щоб ефективно взаємодіяти зі службою та отримувати вигоду від них.
Зіставлення, вимірювання та керування ризиками
Як і інші трансформаційні технології, використання переваг ШІ не є безризиковим, а основна частина програми Microsoft Responsible AI призначена для виявлення та зіставлення потенційних ризиків, вимірювання цих ризиків і керування ними шляхом створення заходів послаблення ризиків і постійного вдосконалення Copilot з плином часу. У наведених нижче розділах описано наш ітеративний підхід до зіставлення, вимірювання та керування потенційними ризиками.
Карта: Ретельне планування та попереднє розгортання змагального тестування, наприклад, червоне об'єднатися, допомагає нам зіставити потенційні ризики. Основні моделі, які забезпечують досвід Copilot, пройшли червоне тестування команди від тестувальників, які представляють багатодисциплінарні перспективи у відповідних тематичних областях. Це тестування було розроблено для оцінки того, як нові технології будуть працювати як з, так і без будь-яких додаткових гарантій, застосованих до нього. Намір цих вправ на рівні моделі полягає в тому, щоб виробляти шкідливі відповіді, поверхні потенційних шляхів для неправильного використання, а також виявлення можливостей і обмежень.
Перш ніж зробити досвід Copilot загальнодоступним в обмеженому попередньому перегляді випуску, ми також провели червоне об'єднання на рівні програми, щоб оцінити Copilot на недоліки та вразливості. Цей процес допоміг нам краще зрозуміти, як система може використовуватися різними користувачами, і допоміг нам покращити наші засоби послаблення ризиків.
Міра: На додаток до оцінки Copilot проти наших існуючих оцінок безпеки, використання червоного об'єднання, описаного вище, допомогло нам розробити оцінки та відповідальні показники AI, що відповідають виявленим потенційним ризикам, таким як розбиття в'язниці, шкідливий вміст і незаземлений вміст.
Ми зібрали розмовні дані, націлені на ці ризики, використовуючи поєднання людських учасників і канал автоматичного створення розмов. Кожна оцінка потім забивається пулом навчених людських анотаторів або автоматичним конвеєром зауважень. Щоразу, коли змінюються продукти, оновлюються наявні засоби послаблення ризиків або пропонуються нові засоби послаблення ризиків, ми оновлюємо наші ознайомчі конвеєри, щоб оцінити як продуктивність продукту, так і відповідальні показники AI. Ці автоматизовані контекстні трубопроводи оцінки є поєднанням зібраних розмов з оцінювачами людини і синтетичних розмов, створених з LLMs, що пропонується протестувати політику змагальною модою. Кожне з цих оцінок безпеки автоматично забивається за допомогою LLMs. Для новостворених оцінок кожне оцінювання спочатку забивають люди, які читають текстовий вміст або слухають аудіовихід, а потім перетворюються на автоматичні оцінки на основі LLM.
Передбачувана поведінка наших моделей у поєднанні з нашими процесами оцінювання (як людиною, так і автоматизованою системою) дає нам змогу швидко виконувати вимірювання потенційних ризиків у масштабі. Коли ми виявляємо нові проблеми з плином часу, ми продовжуємо розширювати набори вимірювань для оцінки додаткових ризиків.
Керування. Оскільки ми визначили потенційні ризики та неналежне використання через червоне об'єднання та виміряли їх за допомогою описаних вище підходів, ми розробили додаткові заходи послаблення ризиків, характерні для досвіду Copilot. Нижче описано деякі з цих пом'якшень. Ми будемо продовжувати стежити за досвідом Copilot для підвищення продуктивності продукту і нашого підходу до зниження ризику.
-
Поетапні плани випуску та постійна оцінка. Ми прагнемо постійно вивчати та вдосконалювати наш відповідальний підхід до AI у міру розвитку наших технологій і поведінки користувачів. Наша стратегія інкрементного випуску була основною частиною того, як ми безпечно переміщуємо нашу технологію з лабораторії у світ, і ми прагнемо до навмисного, продуманого процесу, щоб забезпечити переваги досвіду Copilot. Ми регулярно вносимо зміни в Copilot для підвищення продуктивності продукту та існуючих заходів зниження ризику, а також впровадження нових заходів послаблення ризиків у відповідь на наші навчання.
-
Використання класифікаторів і системних повідомлень для зменшення потенційних ризиків або неправильного використання. У відповідь на запити користувачів, LLMs може призвести до проблемного вмісту. Ми обговорили типи вмісту, які ми намагаємося обмежити в розділах Поведінка системи та Обмеження вище. Класифікатори та системне повідомлення – це два приклади послаблення ризиків, реалізованих у Copilot, щоб знизити ризик таких типів вмісту. Класифікатори класифікують текст, щоб позначити потенційно небезпечний вміст у запитах користувача або створених відповідях. Ми також використовуємо наявні практичні поради з використання системного повідомлення, яке передбачає надання вказівок моделі для узгодження її поведінки з принципами AI корпорації Майкрософт і очікуваннями користувачів.
-
Згода на завантаження зображень Copilot. Коли користувач вперше завантажує зображення з обличчями в Copilot, їм буде запропоновано надати свою згоду на передавання своїх біометричних даних до Copilot. Якщо користувач не погодиться, зображення не буде надіслано до Copilot. Усі зображення, незалежно від того, містять вони обличчя, видаляються протягом 30 днів після завершення розмови.
-
Розголошення ШІ. Copilot також призначений для інформування людей про те, що вони взаємодіють з системою ШІ. Оскільки користувачі взаємодіють з Copilot, ми пропонуємо різні сенсорні точки, призначені для того, щоб допомогти їм зрозуміти можливості системи, розкрити їм, що Copilot працює на ШІ, і передати обмеження. Цей досвід розроблений таким чином, щоб допомогти користувачам максимально ефективно використовувати Copilot і звести до мінімуму ризик перекладання. Розкриття також допомагає користувачам краще зрозуміти Copilot і їх взаємодії з ним.
-
Медіа-походження. Коли Copilot генерує зображення, ми активували функцію "Облікові дані вмісту", яка використовує криптографічні методи для позначення джерела, або "походження" всіх зображень, створених за допомогою ШІ, створених за допомогою Copilot. У цій технології використовуються стандарти, встановлені Коаліцією вмісту та автентичності (C2PA), щоб додати додатковий рівень довіри та прозорості для зображень, створених ШІ.
-
Автоматичне виявлення вмісту. Коли користувачі завантажують зображення в рамках свого чату, Copilot розгортає інструменти для виявлення зображень сексуальної експлуатації та насильства над дітьми (CSEAI). Корпорація Майкрософт повідомляє про всі очевидні CSEAI Національному центру зниклих та експлуатованих дітей (NCMEC), як того вимагає законодавство США. Коли користувачі завантажують файли для аналізу або обробки, Copilot розгортає автоматизоване сканування, щоб виявити вміст, який може призвести до ризиків або неправильного використання, наприклад тексту, який може пов'язати з незаконною діяльністю або зловмисним кодом.
-
Умови використання та Правила поведінки. Користувачі повинні дотримуватися застосовних Умов використання та кодексу поведінкиMicrosoft, а також Декларації корпорації Майкрософт про конфіденційність, які, серед іншого, інформують їх про допустиме та неприпустиме використання та наслідки порушення умов. Умови використання також надають додаткові розкриття інформації для користувачів і служить посиланням для користувачів, щоб дізнатися про Copilot. Користувачів, які вчиняють серйозні або повторювані порушення, може бути тимчасово або остаточно відключено від служби.
-
Відгуки, моніторинг і нагляд. Досвід Copilot спирається на наявні засоби, які дозволяють користувачам надсилати відгуки, які розглядаються операційними групами Microsoft. Крім того, наш підхід до картографування, вимірювання та управління ризиками буде продовжувати розвиватися, коли ми дізнаємося більше, і ми вже вдосконалюємо їх на основі відгуків, зібраних під час підготовчих періодів.
Докладніше про відповідальний ШІ
Звіт про прозорість AI, відповідальний за корпорацію Майкрософт
Докладніше про Microsoft Copilot
Про цей документ
© Корпорація Майкрософт (Microsoft Corporation), 2024. Усі права захищено. Цей документ надано "як є" та виключно для ознайомлення. Відомості та подання, виражені в цьому документі, включно з URL-адресою та іншими посиланнями на веб-сайт в Інтернеті, можуть змінюватися без попередження. Ризик, пов’язаний із його використанням, покладається на вас. Деякі приклади призначені лише для ілюстрацій і є вигаданими. Жоден справжній зв'язок не призначений або не припускається.
Цей документ не призначений, і не повинен тлумачитися як надання, юридичні консультації. Юрисдикція, у якій ви працюєте, може мати різні нормативні або юридичні вимоги, які застосовуються до вашої системи AI. Зверніться до фахівця з юридичних питань, якщо ви не впевнені в законах або правилах, які можуть застосовуватися до вашої системи, особливо якщо ви вважаєте, що це може вплинути на ці рекомендації. Пам'ятайте, що не всі ці рекомендації та ресурси будуть доречні для кожного сценарію, і, навпаки, для деяких сценаріїв ці рекомендації та ресурси можуть бути недостатніми.
Опубліковано: 10/01/2024
Останнє оновлення: 01.10.2024