Останнє оновлення: серпень 2023 р.
Copilot поєднує потужність великих мовних моделей (LLM) з аналітикою Microsoft Graph. Використовуючи ваші бізнес-дані, Copilot синтезує інформацію з документів, електронних листів і повідомлень, щоб надавати підсумки, відповідати на бізнес-запитання та створювати чернетки вмісту з файлів, повідомлень тощо.
Copilot використовує велику мовну модель, яка імітує природну мову, на основі закономірностей із великого обсягу навчальних даних. Модель оптимізовано для розмови за допомогою методу підсилення навчання з людським зворотнім зв'язком (RLHF), який використовує демонстрації людини, щоб керувати моделлю згідно бажаної поведінки.
Коли ви надсилаєте текстовий запит до Copilot, модель створює відповідь на основі припущень щодо того, який текст має йти далі в рядку слів. Модель базується на предметно-орієнтованій мові (DSL), що дає змогу вказати, які відомості потрібно шукати та синтезувати з даних Microsoft 365. Важливо пам'ятати, що система була розроблена для імітації природного спілкування людини, але результат може бути неточним або застарілим.
Використовуйте природну мову, щоб поставити Copilot робочі запитання, отримати допомогу зі створенням вмісту або підсумок теми, документа чи розмови в чаті. Що точніший запит, то кращі результати.
Нижче наведено кілька прикладів підказок, які допоможуть почати роботу:
-
Підсумувати непрочитані електронні листи від Джона
-
Створити чернетку повідомлення моїй команді з елементами дій із останньої наради
-
Яка політика щодо відпустки?
-
З ким я проводитиму нараду завтра?
Copilot розроблено для надання точних та інформативних відповідей на основі знань і даних, доступних у Microsoft Graph. Однак відповіді не завжди можуть бути точними, оскільки вони створюються на основі закономірностей і ймовірностей у мовних даних. Відповіді містять посилання, коли це можливо, і важливо перевірити інформацію. Хоча Copilot має можливість уникати образливого вмісту або потенційно шкідливих тем, ви все одно можете побачити неочікувані результати. Ми постійно працюємо над удосконаленням нашої технології, щоб запобігти використанню шкідливого вмісту.
Якщо ви знайшли неправильну відповідь або зіткнулися зі шкідливим чи неприйнятним вмістом, надайте відгук, клацнувши піктограму Палець униз і докладно описавши проблему.
Щоб забезпечити якість, Copilot відповідає на тестові запитання. Відповіді на них оцінюються на основі таких критеріїв, як точність, відповідність, тон та інтелект. Ці оцінки потім використовуються для вдосконалення моделі. Важливо пам'ятати, що система була розроблена для імітації природного спілкування людини, але результат може бути неточним, неправильним або застарілим. Надаючи відгук за допомогою піктограми Палець угору або Палець униз, ви допомагаєте навчити Copilot, які відповіді корисні для вас як для користувача, а які ні. Ми використовуватимемо цей відгук, щоб покращити Copilot, так само як використовуємо відгуки клієнтів для покращення інших служб Microsoft 365 і програм Microsoft 365. Цей відгук не використовується для навчання базових моделей, які застосовує Copilot. Користувачі можуть керувати відгуками за допомогою елементів керування для адміністраторів. Докладні відомості див. в статті Керування відгуками Microsoft для організації.
Ні, більше не потрібно пов’язувати особистий обліковий запис із робочим обліковим записом, щоб використовувати Copilot. Щоб використовувати Copilot у Bing для бізнесу, увійдіть у Microsoft Edge за допомогою робочого облікового запису.
Щоб використовувати Copilot у Bing для бізнесу, потрібно ввійти в Microsoft Edge за допомогою робочого облікового запису Microsoft. Щоб використовувати Bing для споживачів, увійдіть у Microsoft Edge за допомогою особистого облікового запису Microsoft. Якщо ви хочете використовувати обидві служби одночасно, відкрийте Microsoft Edge у двох окремих вікнах, увійдіть в одне з них за допомогою робочого облікового запису, а в інше – за допомогою особистого облікового запису.
Copilot і Microsoft 365 розроблено на основі комплексного підходу корпорації Майкрософт до безпеки, відповідності вимогам і конфіденційності.
Докладніше про конфіденційність див. тут:
-
Якщо ви використовуєте Copilot для Microsoft 365 в організації (з робочим або навчальним обліковим записом), див. статтю Дані, конфіденційність і безпека для Microsoft Copilot для Microsoft 365.
-
Якщо ви використовуєте Copilot у Програмах Microsoft 365 удома в рамках передплати на Copilot Pro (з особистим обліковим записом Microsoft), див. статтю Copilot Pro: ваша конфіденційність у Програмах Microsoft 365.
Оскільки штучний інтелект готовий перетворити наше життя, ми повинні колективно визначити нові правила, норми та практики використання та впливу цієї технології. Корпорація Майкрософт перебуває на шляху до відповідального штучного інтелекту з 2017 року, коли ми визначили наші принципи та підхід до забезпечення використання цієї технології таким чином, щоб вона керувалася етичними принципами, які ставлять людей на перше місце. Дізнайтеся більше про платформу Microsoft для відповідального створення систем штучного інтелекту, етичні принципи, які керують нами, а також про засоби та можливості, які ми створили, щоб допомогти клієнтам відповідально використовувати ШІ.
Copilot надає лише ті дані, до яких кожен користувач може отримати доступ за допомогою тих самих базових елементів керування, що й в інших службах Microsoft 365. Модель дозволів в осередку Microsoft 365 допоможе уникнути витоку даних між користувачами та групами. Докладні відомості про те, як корпорація Майкрософт захищає ваші дані, див. в розділіДекларація корпорації Майкрософт про конфіденційність.