最後更新時間:2025 年 9 月

什麼是透明度筆記?

人工智慧系統不僅包括技術,還包括將使用它的人、將受到其影響的人以及部署它的環境。 Microsoft 的透明度說明旨在幫助您了解 Copilot 背後的 AI 技術的工作原理、我們所做的影響系統效能和行為的選擇,以及考慮整個系統的重要性,以便 Copilot 的使用者能夠控制自己的體驗,並了解我們為提供安全可靠的產品而採取的步驟。

Microsoft 的透明度說明是 Microsoft 將我們的 AI 原則付諸實踐的更廣泛努力的一部分。 若要深入瞭解,請參閱 Microsoft AI 原則。 

Microsoft Copilot 的基本概念

簡介

Copilot 是一種人工智慧驅動的體驗,可協助使用者提供他們正在尋找的信息,同時準備好支援使用者回答各種問題,無論情況或主題如何。 更新後的 Copilot 超越了回答基本的資訊檢索查詢,而是專注於生成內容,以便在使用者完成任務時提供更主動的支援。 我們越來越了解人工智慧如何有潛力幫助人們學習、發現和提高創造力,這要求我們建立不同類型的產品。 新的 Copilot 體驗旨在成為一種開放式和動態的新型體驗,以更直觀的方式更好地滿足用戶需求。

在 Microsoft,我們認真對待負責任的 AI 承諾。 更新的 Copilot 體驗是根據 Microsoft 的 AI 原則Microsoft 的 Responsible AI Standard 開發,並與公司內負責任的 AI 專家合作開發,包括 Microsoft 負責任的 AI 辦公室、我們的工程團隊、Microsoft Research 和 Aether。 您可以在 此處了解有關 Microsoft 負責任的 AI 的更多信息。  

在本文件中,我們描述了 Copilot 負責任的 AI 方法。 在發行之前,我們利用 Microsoft 最先進的方法來對應、測量和管理系統的潛在風險和濫用,並確保其為使用者帶來的好處。 隨著我們不斷發展 Copilot,我們也不斷學習和改進我們負責任的 AI 工作。 本文件將定期更新,以傳達我們不斷發展的流程和方法。  

關鍵詞彙

分類器    機器學習模型,可協助將資料分類為已標記的類別或資訊類別。 在更新的 Copilot 體驗中,我們使用分類器的一種方式是協助偵測使用者提交或系統產生的潛在有害內容,以減少該內容的產生以及系統的誤用或濫用。 

接地    對於使用者尋求資訊的某些對話,Copilot 以網路搜尋結果為基礎。 這意味著 Copilot 將其回應集中在網路上的高排名內容上,並在產生的文字回應後提供超連結引用。 請注意,目前,語音模式下的使用者提示不會觸發網路搜尋,因此,任何回應都不會包含引用。

大型語言模型 (LLM)     在這種情況下) 大型語言模型 (法學碩士是人工智慧模型,它們經過大量文字資料的訓練,以預測序列中的單字。 LLM 可以執行各種任務,例如文字產生、摘要、翻譯、分類等。

緩和措施    一種方法或方法組合,旨在降低在 Copilot 中使用 AI 功能可能產生的潛在風險。

MMM (多模態模型)     MMM (多模態模型) 是針對不同類型的資料(例如文字、圖像或音訊)進行訓練的 AI 模型。 這些模型可以執行各種任務,例如編寫文字、描述圖像、識別語音以及在不同類型的資料中尋找資訊。

提示    使用者傳送至 Copilot 以與 Copilot 中的 AI 功能互動的文字、影像和/或音訊形式的輸入。

紅隊    專家用來評估系統的限制和漏洞以及測試計劃緩解措施有效性的技術。 紅隊測試包括測試人員採用良性和對抗性角色來識別潛在風險,這與系統化的風險測量不同。

回應    Copilot 為回應提示或作為與使用者來回交流的一部分而輸出的文字、影像或音訊。 「回應」的同義詞包括「完成」、「生成」和「答案」。

小型語言模型 (SLM)     在這種情況下) 小型語言模型 (SLM 是與大型語言模型相比,在更小、更集中的資料量上進行訓練的 AI 模型。 儘管 SLM 體積較小,但可以執行各種任務,例如文字產生、摘要、翻譯和分類。 雖然 SLM 可能無法與 LLM 的廣泛功能相媲美,但 SLM 通常更節省資源,並且對於特定的、有針對性的應用程式非常有效。 

系統訊息    系統訊息有時 (稱為“元提示”) 是一個用於指導系統行為的程式。 系統訊息的部分有助於使系統行為符合 Microsoft AI 原則和使用者期望。 例如,系統訊息可能包含諸如「請勿提供資訊或建立可能導致身體、情感或經濟傷害的內容」之類的行。 

功能

系統行為

借助 Copilot,我們開發了一種創新方法,為使用者帶來更個人化的 AI 體驗,提供引人入勝的體驗,可以幫助使用者完成各種任務。 這種創新方法利用了各種先進技術,例如來自 Microsoft、OpenAI 和其他模型開發人員的語言和多模態模型。 在公開發行之前,我們致力於為新 Copilot 體驗基礎模型實作安全技術,以開發一組自訂的功能和行為,以提供增強的 Copilot 體驗。 在更新後的 Copilot 中,使用者可以以自然語言、文字或語音發送提示。 回應以多種不同的格式呈現給使用者,例如文字形式的聊天回應 (必要的 Web 內容傳統連結,) 以及圖像 ((如果圖像請求是作為提示) 的一部分的一部分)。 如果使用者在 Copilot 語音模式中以自然語言語音傳送提示,他們將收到音訊回應。 

當使用者在 Copilot 中輸入提示時,提示、對話記錄和系統訊息會透過多個輸入分類器發送,以幫助過濾掉有害或不適當的內容。 這是幫助提高模型性能並緩解用戶可能嘗試以不安全的方式提示模型的情況的關鍵第一步。 一旦提示通過輸入分類器,它就會被發送到 SLM,以確定請求是否需要來自 Web 的接地數據以及哪種語言模型應該響應請求。 所有模型都會使用使用者的提示和最近的交談歷程記錄來產生回應,以將要求內容化,系統訊息以使回應符合 Microsoft AI 原則和使用者期望,並在適當的情況下,將回應與搜尋結果保持一致,以基礎回應來自網路。  

回應以多種不同的格式呈現給使用者,例如文字形式的聊天回應、網頁內容的傳統連結、圖像和音訊回應。 當回應以文字形式提供時,且回應以網路資料為基礎,輸出會包含文字下方列出的超連結引文,以便使用者可以存取網站 (用於建立回應基礎的) ,並從那裡進一步了解該主題。 Copilot 還可以運行代碼來完成複雜的計算並生成圖表。 Copilot 可以儲存使用者要求其記住的特定事實,使其能夠根據該上下文產生更相關的回應和建議。 當使用者明確要求忘記已儲存的事實時,Copilot 也可以刪除已儲存的事實。

Copilot 還幫助用戶創建新的故事、詩歌、歌詞和圖像。 當 Copilot 偵測到使用者產生創意內容的意圖時,例如以「寫給我...」開頭的使用者提示 () ,在大多數情況下,系統將產生回應使用者提示的內容。 同樣地,當 Copilot 偵測到使用者產生影像 (意圖時,例如以「畫我一個...」開頭的使用者提示 ) ,Copilot 會在大多數情況下產生回應使用者提示的影像。 當 Copilot 偵測到使用者修改上傳影像 (意圖時,例如以「新增...」開頭的使用者提示 ) ,在大多數情況下,Copilot 會修改回應使用者提示的影像。 當使用者提示包含某些可能導致內容有問題的術語時,Copilot 可能不會回應創意內容。

擁有 Microsoft 帳戶 (MSA) 的用戶現在還可以選擇訂閱 Copilot Pro,這提供了增強的體驗,包括加速效能、更長時間地使用 Copilot 語音功能,以及在某些情況下,可以存取新的實驗性功能。 Copilot Pro 目前在有限數量的國家/地區可用,我們計劃很快在更多市場推出 Copilot Pro。

預期的安全行為

我們對 Copilot 的目標是對使用者有所幫助。 透過利用其他 Microsoft 生成式 AI 產品和服務的最佳實踐,我們的目標是限制 Copilot 產生有問題的內容,並增加安全和積極的使用者體驗的可能性。 雖然我們已採取措施降低風險,但像 Copilot 背後的生成式 AI 模型是機率性的,可能會出錯,這意味著緩解措施有時可能無法阻止有害的使用者提示或 AI 產生的回應。 如果您在使用 Copilot 時遇到有害或意外的內容,請透過提供意見回饋來告知我們,以便我們繼續改善體驗。

應用案例

預期用途

Copilot 旨在支援使用者回答各種問題,無論情況或主題如何。 使用者可以使用文字、圖像和音訊輸入與 Copilot 進行交互,其中互動旨在感覺更像是與人工智慧系統的自然對話。 此外,如果使用者透過文字與 Copilot 互動,以尋找 Copilot 可能需要更多資訊才能產生更準確答案的主題的特定資訊,則體驗旨在將使用者與相關搜尋結果連結起來、檢閱來自整個網路的結果,並總結使用者正在尋找的資訊。 在 Copilot 中,使用者可以: 

  • 通過文本聊天時總結實時信息。    當使用者透過文字與 Copilot 互動時,如果需要更多資訊,系統將執行網路搜索,並使用頂部的網路搜尋結果產生資訊摘要以呈現給使用者。 這些摘要包括對網頁的引用,以幫助用戶查看和輕鬆存取有助於 Copilot 摘要基礎的搜尋結果來源。 如果用戶想了解更多信息,可以點擊這些鏈接直接進入源代碼。

  • 使用文字與 AI 系統聊天。    使用者可以透過文字與 Copilot 聊天並提出後續問題,以尋找新資訊並獲得各種主題的支援。

  • 使用語音和外觀與 AI 互動。    Copilot不僅可以接收音訊輸入,還可以以使用者選擇的四種聲音之一產生音訊輸出,並呈現視覺外觀,豐富互動。 音訊到音訊和外觀功能使用戶能夠以更自然、更流暢的方式與 Copilot 互動。

  • 接收易於理解的新聞內容。    用戶可以使用 Copilot 通過 Copilot 日報 功能接收基於選定主題領域的新聞、天氣和其他更新摘要,並以類似播客的形式收聽這些簡報。 此功能將從與 Microsoft 簽訂協議的授權來源提取內容。

  • 獲得產生新想法的幫助。    每次使用者與 Copilot 體驗互動時,他們都會看到一組卡片,他們可以按一下這些卡片來開始與 Copilot 討論有用且有趣的主題。 如果使用者已與其他 Microsoft 消費者服務互動,這些卡片將根據我們的 隱私權原則進行個人化。 隨著時間的推移,Copilot 中的卡片可能會根據使用者的聊天記錄進行個人化。 使用者可以隨時在設定中選擇退出個人化。

  • 產生創意內容。    與 Copilot 聊天時,使用者可以在 Copilot 體驗的幫助下創作新的詩歌、笑話、故事、圖像和其他內容。 如果需要,Copilot 還可以編輯用戶上傳的圖像。

  • 在 Android 上執行任務。使用者可以透過Android平台透過語音與Copilot進行交互,執行某些任務。 這些任務包括設置計時器和鬧鐘、撥打電話、發送短信和訂購優步。 用戶必須在任務完成前確認電話、短信和 Uber 訂單。

  • 協助研究。  Copilot 可以透過提供深入的資源、提供主題的詳細細分以及連結到來源來執行研究任務,以幫助使用者超越對更複雜查詢的快速答案。 Copilot 可能會根據過去的研究查詢和 Copilot 記憶等內容主動為使用者產生個人化的研究建議。 使用者可以隨時在設定中選擇退出個人化或通知。

  • 使用 Copilot 視覺探索世界。 Copilot 可以查看您的螢幕或行動攝影機來源,並使用其語音回答問題並與您互動。 Copilot 可以即時掃描、分析並即時提供見解和建議,以在您工作、瀏覽或探索世界時為您提供幫助。 Copilot 視覺可在 Edge、Windows、iOS 和 Android 上使用。

選擇其他使用案例時的考量事項

我們鼓勵使用者在做出決定或根據 Copilot 的回應採取行動之前查看所有內容,因為 AI 可能會犯錯誤。 此外,我們建議避免某些情況或違反我們的使用條款。 例如,Microsoft 不允許將 Copilot 用於非法活動或用於任何旨在促進非法活動的目的。  

限制

作為 Copilot 體驗基礎的語言、圖像和音訊模型可能包含可以反映社會偏見的訓練數據,這反過來又可能導致 Copilot 以被視為不公平、不可靠或冒犯的方式行事。 儘管我們進行了密集的模型訓練和安全微調,以及我們對訓練數據、用戶提示和模型輸出實施了負責任的人工智能控制和安全系統,但人工智能驅動的服務是容易出錯的和概率性的。 這使得全面阻止所有不當內容變得具有挑戰性,從而導致人工智慧生成內容中可能出現的潛在偏見、刻板印象、不接地氣或其他類型的傷害的風險。 此處列出了這些限制可能在 Copilot 體驗中顯現的一些方式。 

  • 刻板印象:Copilot 體驗可能會強化刻板印象。 例如,將「他是一名護士」和「她是一名醫生」翻譯成土耳其語等無性別語言,然後再翻譯回英語時,Copilot 可能會無意中產生「她是一名護士」和「他是一名醫生」的刻板 (和不正確的) 結果。 另一個例子是,當根據提示「無父兒童」產生圖像時,系統可以僅產生來自一個種族或民族的兒童圖像,從而強化用於訓練底層模型的公開圖像中可能存在的有害刻板印象。 Copilot 還可能依賴圖像的組件並做出可能不正確的假設,從而根據用戶輸入圖像中的內容強化刻板印象。 我們已實施緩解措施,以降低包含冒犯性刻板印象的內容的風險,包括輸入和輸出分類器、微調模型和系統訊息。

  • 代表性過高和代表性不足:Copilot 在其回應中可能會過度或不足代表一群人,甚至根本不代表他們。 例如,如果包含「同性戀」一詞的文字提示被偵測為潛在有害或冒犯,這可能會導致合法世代對 LGBTQIA+ 社群的代表性不足。 除了包含輸入和輸出分類器、微調模型以及系統訊息之外,我們還使用 Designer 中的提示擴充作為數種緩解措施之一,以降低內容過度或不足代表人群的風險。

  • 不當或冒犯性內容:Copilot 體驗可能會產生其他類型的不適當或冒犯性內容。 示例包括以一種模式生成內容的能力 (例如,音頻) 在其提示的上下文中不合適,或者與不同模式 ((例如文本) )中的相同輸出進行比較時。 其他例子包括人工智慧生成的圖像,這些圖像可能包含有害偽影,例如仇恨符號、與有爭議、有爭議或意識形態兩極分化的主題相關的內容,以及逃避性相關內容過濾器的色情內容。 我們已採取緩解措施,以降低包含不適當或冒犯性內容的世代的風險,例如輸入和輸出分類器、微調模型和系統訊息。

  • 信息可靠性:雖然 Copilot 的目標是在必要時以可靠的來源做出回應,但 AI 可能會犯錯誤。 它可能會產生無意義的內容或捏造聽起來合理但實際上不準確的內容。 即使從高權威網路資料中提取回應,回應也可能以可能不完全準確或可靠的方式歪曲該內容。 我們透過使用者介面和此類文件提醒使用者,Copilot 可能會犯錯誤。 我們也繼續教育使用者了解人工智慧的局限性,例如鼓勵他們在做出決定之前仔細檢查事實或根據 Copilot 的回應採取行動。 當使用者透過文字與 Copilot 互動時,它會嘗試將自己紮根於高品質的 Web 資料,以降低世代不接地的風險。

  • 多語言效能:不同語言的效能可能會有所不同,其中英語在發布更新的 Copilot 時表現最佳。 提高跨語言的效能是一個關鍵的投資領域,最近的模型已經提高了效能。

  • 音訊限制:音訊模型可能會引入其他限制。 從廣義上講,語音輸入的聲學品質、非語音雜訊、詞彙、口音和插入錯誤也可能影響 Copilot 是否以令人滿意的方式處理和回應使用者的音訊輸入。 此外,由於使用者在使用 Copilot Voice 時的提示不會觸發網路搜索,因此 Copilot 可能無法在語音模式下回應當前事件。

  • 對網際網路連線的依賴:更新的 Copilot 體驗依賴於網際網路連線來運作。 連線中斷可能會對服務的可用性和效能產生影響。

系統效能

在許多 AI 系統中,效能通常與準確性 (相關,即 AI 系統提供正確預測或輸出) 的頻率。 透過 Copilot,我們專注於將 Copilot 作為反映使用者偏好的人工智慧助理。 因此,兩個不同的使用者可能會查看相同的輸出,並對其與其獨特情況和期望的有用性或相關性有不同的意見,這意味著必須更靈活地定義這些系統的效能。 我們廣泛地認為效能意味著應用程式的效能符合使用者的預期。

改善系統效能的最佳作法 

使用自然的對話語言與界面交互。    以使用者舒適的方式與 Copilot 互動,是透過體驗獲得更好結果的關鍵。 與採用技術幫助人們在日常生活中進行有效溝通類似,透過使用者熟悉的文字或語音與 Copilot 作為人工智慧驅動的助理進行互動可能有助於獲得更好的結果。

使用者體驗和採用。    有效使用 Copilot 需要使用者了解其功能和限制。 可能會有學習曲線,使用者可能想要參考各種 Copilot 資源 (例如,本檔和我們的 Copilot 常見問題集) ,以有效地與服務互動並從中受益。

繪製、衡量和管理風險

與其他轉型技術一樣,利用 AI 的優勢並非沒有風險,Microsoft 負責任 AI 計劃的核心部分旨在識別和映射潛在風險、衡量這些風險,並通過構建緩解措施並隨著時間的推移不斷改進 Copilot 來管理它們。 在以下各節中,我們將描述我們繪製、衡量和管理潛在風險的迭代方法。

地圖:仔細規劃和部署前對抗性測試(例如紅隊)有助於我們繪製潛在風險。 為 Copilot 體驗提供支援的底層模型經過了代表相關主題領域的多學科觀點的測試人員的紅隊測試。 該測試旨在評估最新技術在應用和不應用任何額外保護措施的情況下如何工作。 這些練習在模型層面的目的是產生有害的反應,發現潛在的濫用途徑,並確定功能和限制。

在有限版本預覽版中公開 Copilot 體驗之前,我們也在應用程式層級進行了紅隊,以評估 Copilot 的缺點和漏洞。 此程序協助我們更瞭解各種使用者如何使用系統,並協助我們改善緩解措施。

措施:除了根據我們現有的安全評估評估 Copilot 之外,上述紅隊的使用還幫助我們開發了與已識別的潛在風險相對應的評估和負責任的 AI 指標,例如越獄、有害內容和不接地的內容。

我們結合使用人類參與者和自動對話生成管道,收集了針對這些風險的對話數據。 然後,每個評估都會由訓練有素的人工註釋者池或自動註釋管道進行評分。 每次產品變更、更新現有的緩解措施或提出新的緩解措施時,我們都會更新評估管線,以評估產品效能和負責任的 AI 指標。 這些自動化評估內容管道是與人類評估者收集的對話,以及使用提示以對抗性方式測試政策的 LLM 產生的合成對話的組合。 這些安全評估中的每一個都會自動使用 LLM 進行評分。 對於新開發的評估,每個評估最初由人類標記者進行評分,他們閱讀文本內容或收聽音頻輸出,然後轉換為基於 LLM 的自動評估。

我們模型的預期行為與我們的評估管道(包括人工和自動化)相結合,使我們能夠快速大規模測量潛在風險。 隨著我們隨著時間的推移發現新問題,我們將繼續擴展測量集以評估其他風險。 

管理:當我們透過紅隊識別潛在風險和濫用,並使用上述方法進行測量時,我們開發了 Copilot 體驗特有的其他風險降低措施。 下面,我們將描述其中一些緩解措施。 我們將繼續監控 Copilot 體驗,以改善產品效能和風險緩解方法。 

  • 分階段發布計劃和持續評估。    隨著我們的技術和用戶行為的發展,我們致力於不斷學習和改進我們負責任的人工智能方法。 我們的累加發行策略一直是我們將技術從實驗室安全地移至世界的核心部分,我們致力於深思熟慮的程式,以確保 Copilot 體驗的優勢。 我們會定期變更 Copilot,以改善產品效能和現有的風險降低措施,並針對我們的學習實作新的風險降低措施。

  • 利用分類器和系統訊息來降低潛在風險或濫用。    為了回應使用者提示,LLM 可能會產生有問題的內容。 我們在上面的系統行為和限制部分討論了我們嘗試限制的內容類型。 分類器和系統訊息是 Copilot 中已實作的緩解措施的兩個範例,可協助降低這些類型內容的風險。 分類器對文字進行分類,以標記使用者提示或產生的回應中可能有害的內容。 我們也會利用現有的最佳做法來利用系統訊息,這牽涉到向模型發出指示,以使其行為符合 Microsoft 的 AI 原則和使用者期望。

  • 同意 Copilot 影像上傳。    當使用者第一次將包含臉部的影像上傳到 Copilot 時,系統會要求他們同意將其生物辨識資料上傳到 Copilot。 如果使用者未選擇加入,則不會將影像傳送至 Copilot。 所有圖像,無論是否包含人臉,都會在對話結束後 30 天內刪除。

  • 人工智慧揭露。    Copilot 還旨在告知人們他們正在與 AI 系統互動。 當使用者與 Copilot 互動時,我們提供各種接觸點,旨在協助他們了解系統的功能、向他們揭露 Copilot 是由 AI 提供支援,以及傳達限制。 體驗以這種方式設計,旨在幫助使用者充分利用 Copilot 並最大限度地降低過度依賴的風險。 揭露也可以幫助使用者更了解 Copilot 及其與它的互動。

  • 媒體來源。    當 Copilot 產生影像時,我們啟用了「內容憑證」功能,該功能使用加密方法來標記使用 Copilot 建立的所有 AI 生成影像的來源或「來源」。 該技術採用內容與真實性聯盟 (C2PA) 制定的標準,為人工智慧生成的圖像增加額外的信任和透明度。

  • 自動內容檢測。    當使用者上傳圖像作為聊天提示的一部分時,Copilot 會部署工具來偵測兒童性剝削和虐待圖像 (CSEAI) 。 Microsoft根據美國法律要求,向國家失蹤和受虐兒童中心 (NCMEC) 報告所有明顯的 CSEAI。 當使用者上傳檔案進行分析或處理時,Copilot 會部署自動掃描來偵測可能導致風險或濫用的內容,例如可能與非法活動或惡意程式碼相關的文字。

  • 使用條款和行為準則。    使用者應遵守 Copilot 適用的使用條款和行為準則、Microsoft 服務合約,以及 Microsoft 隱私權聲明,其中會告知他們允許和不允許的使用,以及違反條款的後果。 使用條款也為使用者提供了額外的揭露,並作為使用者了解 Copilot 的參考。 嚴重或屢次違規的用戶可能會被暫時或永久暫停服務。

  • 反饋、監控和監督。    Copilot 體驗建立在現有工具之上,允許用戶提交反饋,這些反饋由 Microsoft 的運營團隊審查。 此外,隨著我們了解更多,我們的映射、衡量和管理風險的方法將繼續發展,並且我們已經根據預覽期間收集的反饋進行改進。

進一步了解負責任的 AI

Microsoft 負責任的 AI 透明度報告

Microsoft AI 原則

Microsoft 負責任 AI 資源

負責任 AI 的 Microsoft Azure 學習課程

深入了解 Microsoft Copilot

Microsoft Copilot 常見問題集

關於本文件

© 2024 年Microsoft公司。 著作權所有,並保留一切權利。 本文件按「原樣」提供,僅供參考。 本文件中表達的資訊和觀點,包括 URL 和其他網際網路網站參考,如有更改,恕不另行通知。 貴用戶須自行承擔使用風險。 有些例子僅供說明,是虛構的。 沒有意圖或推斷出真正的關聯。

本文件無意也不應被解釋為提供法律建議。 您營運所在的司法管轄區可能有適用於您的 AI 系統的各種法規或法律要求。 如果您不確定可能適用於您的系統的法律或法規,特別是如果您認為這些法律或法規可能會影響這些建議,請諮詢法律專家。 請注意,並非所有這些建議和資源都適用於每個案例,相反地,這些建議和資源可能不足以應付某些案例。

發佈時間:2024 年 10 月 1 日

最後更新日期:2024 年 10 月 1 日

需要更多協助嗎?

想要其他選項嗎?

探索訂閱權益、瀏覽訓練課程、瞭解如何保護您的裝置等等。