最後更新:2025年12月19日

什麼是透明通知?

AI 系統不僅包含技術本身,還包括使用者、受影響者,以及其部署環境。 Microsoft 的透明筆記旨在幫助您了解 Copilot 背後的 AI 技術運作方式、我們所做的決定如何影響系統的效能與行為,以及思考整個系統的重要性,讓 Copilot 的使用者能掌控自己的體驗,並了解我們為提供安全且可靠的產品所採取的步驟。

Microsoft 的透明度備註是 Microsoft 將 AI 原則付諸實踐的更廣泛努力的一部分。 想了解更多,請參閱 Microsoft AI 原則。 

Microsoft Copilot 的基本功能

簡介

Copilot 是一款由 AI 驅動的體驗,能幫助用戶獲得所需資訊,同時準備協助用戶回答各種問題,無論情況或主題為何。 更新後的 Copilot 不僅回應基本的資訊檢索查詢,更專注於生成內容,為用戶在完成任務時提供更主動的支援。 我們越來越了解 AI 有潛力幫助人們學習、發現並提升創造力,這也促使我們打造一種不同類型的產品。 新的 Copilot 體驗旨在成為一種開放且動態的新型體驗,以更直覺的方式更好地滿足使用者需求。

在 Microsoft,我們非常重視對負責任 AI 的承諾。 更新後的 Copilot 體驗是依照 Microsoft 的 AI 原則Microsoft 的 Responsible AI Standard 開發,並與公司內負責任的 AI 專家合作,包括 Microsoft 負責任 AI 辦公室、我們的工程團隊、Microsoft Research 及 Aether。 你可以 在這裡了解更多關於 Microsoft 負責任 AI 的資訊。  

在本文件中,我們描述了對 Copilot 負責任 AI 的做法。 在正式發佈前,我們利用 Microsoft 最先進的方法來繪製、衡量並管理系統潛在的風險與誤用,並確保用戶享有其利益。 隨著我們持續演進 Copilot,我們也持續學習並改進負責任的 AI 工作。 本文件將定期更新,以傳達我們不斷演變的流程與方法。  

關鍵術語

分類器    機器學習模型有助於將資料分類為有標籤的類別或資訊類別。 在更新後的 Copilot 體驗中,我們使用分類器的方式之一是協助偵測用戶提交或系統產生的潛在有害內容,以減少該內容的產生及系統的濫用。 

擱淺    對於某些用戶尋求資訊的對話,Copilot 是基於網路搜尋結果。 這表示 Copilot 會以網路上高排名的內容為回應,並在生成的文字回應後提供超連結引用。 請注意,目前語音模式下的使用者提示不會觸發網路搜尋,因此回應不會包含引用。

大型語言模型 (大型語言模型)     在此情境下,大型語言模型 (大型語言模型) 是指在大量文字資料上訓練以預測序列中詞彙的人工智慧模型。 LLM 能執行多種任務,如文字生成、摘要、翻譯、分類等。

緩和措施    一種方法或多種方法組合,旨在降低使用 Copilot 中 AI 功能可能產生的風險。

多模態模型 (MMM)     多模態模型 (MMMs) 是基於不同類型資料(如文字、影像或音訊)訓練的人工智慧模型。 這些模型能執行多種任務,例如撰寫文字、描述圖片、辨識語音,以及跨越不同類型資料尋找資訊。

提示    使用者以文字、圖片和/或音訊的形式輸入 Copilot,以與 Copilot 中的 AI 功能互動。

紅隊    專家用來評估系統的限制與脆弱性,以及測試計畫緩解措施成效的技術。 紅隊測試包括測試者採用良性與對抗性角色來識別潛在風險,與系統性風險測量不同。

回應    Copilot 在回應提示或與使用者互動時輸出的文字、圖片或音訊。 「回應」的同義詞包括「完成」、「生成」和「回答」。

小型語言模型 (語言語言模型)     在此語境下,小型語言模型 (SLMs) 是指相較於大型語言模型,訓練於較小且更聚焦的資料量的人工智慧模型。 儘管體積較小,SLM 仍能執行多種任務,如文字生成、摘要、翻譯及分類。 雖然它們可能無法達到大型語言模型(LLM)的廣泛功能,但 SLM 通常資源更有效率,且在特定目標應用中非常有效。 

系統訊息    系統訊息有時 (被稱為「元提示」) 是一種用來引導系統行為的程式。 系統訊息的部分內容有助於將系統行為與 Microsoft AI 原則及使用者期望對齊。 例如,系統訊息可能會包含「請勿提供可能造成身體、情感或財務傷害的資訊或內容」。 

功能

系統行為

透過 Copilot,我們開發出創新方法,為用戶帶來更個人化的 AI 體驗,提供引人入勝的體驗,幫助用戶完成各種任務。 這種創新方法運用多種先進技術,如來自 Microsoft、OpenAI 及其他模型開發者的語言與多模態模型。 我們在公開發布前,針對新 Copilot 體驗的基礎模型實施安全技術,開發一套客製化的能力與行為,以提升 Copilot 體驗。 在更新後的 Copilot 中,使用者可以用自然語言、文字或語音發送提示。 回應以多種格式呈現給使用者,例如聊天回應以文字形式呈現, (必要時附有傳統網頁內容連結,) (若提示) 中有圖片請求,則附有圖片。 若用戶在副駕駛語音模式下以自然語言語音發送提示,將獲得音訊回應。 

當使用者在 Copilot 輸入提示時,提示、對話紀錄及系統訊息會透過多個輸入分類器傳送,以協助過濾有害或不適當的內容。 這是提升模型效能並減少使用者可能以不安全方式提示模型的關鍵第一步。 當提示符通過輸入分類器後,會送交 SLM 以判斷請求是否需要來自網路的接地資料,以及哪種語言模型應該回應請求。 所有模型都會根據使用者的提示與近期對話紀錄產生回應,將請求置於情境中;系統訊息則用以使回應符合 Microsoft AI 原則及使用者期望;並在適當情況下,將回應與搜尋結果對應到網路上現有且高排名內容中的基礎回應。  

回應以多種格式呈現給使用者,例如文字聊天回應、傳統連結至網頁內容、圖片及音訊回應。 當回應以文字形式提供——且回應基於網路資料時,輸出內容會在文字下方列出超連結引用,讓使用者能存取網站 () ,這些資料是用來建立回應基礎的,並從中進一步了解主題。 Copilot 也能執行程式碼完成複雜計算並產生圖表。 Copilot 可以儲存用戶要求記憶的特定事實,並根據上下文產生更相關的回應與建議。 當使用者明確要求忘記已儲存的事實時,Copilot 也能刪除。

Copilot 也協助用戶創作新故事、詩歌、歌曲歌詞和圖片。 當 Copilot 偵測到使用者有意產生創意內容 (,例如以「write me a ...」) 開頭的使用者提示時,系統在大多數情況下會根據使用者的提示產生回應的內容。 同樣地,當 Copilot 偵測到使用者意圖產生圖片 (,例如以「畫我一個......」) 開頭的使用者提示時,大多數情況下 Copilot 會根據使用者的提示產生相應的圖片。 當 Copilot 偵測到使用者意圖修改上傳的圖片 (,例如以「add a ...」) 開頭的使用者提示時,大多數情況下 Copilot 會根據使用者的提示修改圖片。 當使用者提示包含可能導致問題內容的詞彙時,Copilot 可能不會回應創意內容。

擁有 Microsoft 帳號 (MSA) 的用戶現在也可選擇訂閱 Copilot Pro,提供更佳體驗,包括加速效能、更長時間使用 Copilot Voice 功能,以及在某些情況下使用新的實驗性功能。 Copilot Pro 目前在有限的國家販售,我們計劃很快在更多市場推出 Copilot Pro。

預期安全行為

我們對 Copilot 的目標是幫助使用者。 透過運用其他 Microsoft 生成式 AI 產品與服務的最佳實務,我們希望限制 Copilot 產生有問題的內容,並提升安全且正向的使用者體驗。 雖然我們已採取措施降低風險,但像 Copilot 背後的生成式 AI 模型具有機率性,可能會犯錯,這意味著緩解措施有時可能無法阻擋有害的使用者提示或 AI 生成的回應。 如果您在使用 Copilot 時遇到有害或意外內容,請透過回饋告知我們,以便我們持續優化體驗。

使用案例

預期用途

Copilot 旨在協助使用者回答各種問題,無論情況或主題為何。 使用者可以透過文字、圖片和音訊輸入與 Copilot 互動,互動感覺更像是與 AI 系統的自然對話。 此外,若使用者透過文字與 Copilot 互動,尋找 Copilot 可能需要更多資訊以提供更準確答案的特定資訊,該體驗旨在連結使用者與相關搜尋結果、瀏覽網路各處的結果,並總結用戶所尋找的資訊。 在 Copilot 中,使用者可以: 

  • 透過簡訊聊天時,請即時摘要資訊。    當使用者透過文字與 Copilot 互動時,系統會在需要更多資訊時進行網路搜尋,並利用排名前列的搜尋結果生成資訊摘要,呈現給使用者。 這些摘要包含網頁引用,幫助使用者看到並輕鬆取得搜尋結果的來源,這些都幫助 Copilot 的摘要更有根基。 使用者若想了解更多,可以點擊這些連結直接前往原始資料。

  • 用文字與 AI 系統聊天。    用戶可以透過簡訊與 Copilot 聊天並提出後續問題,以獲取新資訊並在各種主題上獲得支持。

  • 利用語音和外觀與 AI 互動。    Copilot 不僅能接收音訊輸入,還能以使用者選擇的四個聲音之一產生音訊輸出,並呈現視覺效果以豐富互動。 音訊轉音訊與外觀功能,讓使用者能以更自然流暢的方式與 Copilot 互動。

  • 接收易懂的新聞內容。    用戶可以使用 Copilot 透過 Copilot Daily 功能,根據特定主題領域接收新聞、天氣及其他更新摘要,並以類似播客的形式收聽這些簡報。 此功能將從與 Microsoft 有協議的授權來源擷取內容。

  • 尋求幫助來產生新點子。    每次使用者與 Copilot 互動時,都會看到一組卡片,點擊開始與 Copilot 討論有用且有趣的話題。 若用戶曾與其他 Microsoft 消費者服務互動,卡片將依照我們的 隱私政策進行個人化。 隨著時間推移,Copilot 中的卡片可能會根據使用者的聊天紀錄進行個人化。 使用者可隨時在設定中選擇退出個人化。

  • 產生創意內容。    與 Copilot 聊天時,用戶可以透過 Copilot 體驗創作新的詩歌、笑話、故事、圖片及其他內容。 Copilot 也可以編輯使用者上傳的圖片,若有需求。

  • 在 Android 上執行任務。使用者可透過 Android 平台語音與 Copilot 互動,執行特定任務。 這些任務包括設定計時器和鬧鐘、打電話、發送簡訊,以及叫Uber。 用戶必須在完成任務前確認通話、簡訊及 Uber 訂單。

  • 協助研究。  Copilot 能透過呈現深入資源、詳細分析主題及連結來源,協助使用者超越快速回答來執行研究任務,面對更複雜的問題。 Copilot 可以主動根據過去的研究查詢和 Copilot 記憶,為使用者生成個人化的研究建議。 使用者可隨時在設定中選擇退出個人化或通知。

  • 用 Copilot Vision 探索世界。 Copilot 可以查看您的螢幕或行動攝影機畫面,並用語音回答問題與您互動。 Copilot 能即時掃描、分析,並即時提供見解與建議,協助你工作、瀏覽或探索世界。 Copilot Vision 可在 Edge、Windows、iOS 及 Android 平台使用。

  • 使用 Connectors 進行資訊檢索。在您同意下,Copilot 可以用自然語言搜尋並互動您的雲端檔案。 Copilot 可以從 Microsoft Outlook 和 Google Gmail 帳號中擷取電子郵件、查詢聯絡人,並查看行事曆約會。 

  • 與 Copilot Groups 合作。 經邀請後,你可以加入或創建 Copilot 的群組對話,共同合作專案與想法。

選擇其他使用情境時的考量

我們鼓勵用戶在根據 Copilot 的回應做出決策或行動前,先審閱所有內容,因為 AI 可能會犯錯。 此外,我們建議避免某些情境,或違反使用條款。 例如,Microsoft 不允許 Copilot 用於非法活動或任何促進非法活動的目的。  

限制

Copilot 體驗背後的語言、影像與音訊模型可能包含反映社會偏見的訓練資料,進而可能導致 Copilot 以被視為不公平、不可靠或冒犯的行為出現。 儘管我們進行了密集的模型訓練和安全微調,並實施了負責任的 AI 控制與安全系統,這些系統對訓練資料、使用者提示和模型輸出施加,AI 驅動的服務仍存在錯誤且機率性強。 這使得全面封鎖所有不當內容變得困難,導致 AI 生成內容中可能出現偏見、刻板印象、缺乏根據或其他傷害的風險。 以下列出了這些限制可能在副駕駛體驗中表現的方式。 

  • 刻板印象:副駕駛的經驗可能會強化刻板印象。 例如,當將「He is a nurce」和「She is a doctor」翻譯成無性別語言如土耳其語,再翻譯回英語時,Copilot 可能會不小心產生典型的 (和錯誤的) 結果,例如「She is a nurce」和「He is a doctor」。 另一個例子是,當系統根據「無父兒童」這個提示產生影像時,系統可能只產生單一種族或族裔的兒童影像,強化了公開影像中可能存在的有害刻板印象,這些刻板印象用來訓練底層模型。 Copilot 也可能根據使用者輸入圖片的內容,依賴圖片的成分並做出可能不正確的假設,來強化刻板印象。 我們已實施緩解措施,以降低包含冒犯性刻板印象內容的風險,包括輸入與輸出分類器、微調模型及系統訊息。

  • 過度代表與不足:Copilot 在回應中可能會過度或低估某些群體,甚至根本不代表他們。 例如,若包含「gay」一詞的文字提示被偵測為潛在有害或冒犯,可能導致LGBTQIA+社群中合法世代的代表性不足。 除了包含輸入與輸出分類器、微調模型以及系統訊息外,我們在 Designer 中使用提示豐富功能,作為多項緩解措施之一,以降低內容過度或不足代表群體的風險。

  • 不當或冒犯性內容:Copilot 體驗可能會產生其他類型的不當或冒犯性內容。 例如,能夠在某一模式產生內容, (例如在提示語境中產生不適當的音訊) ,或在不同方式 (例如文字) 中與相同輸出比較時不合適。 其他例子包括可能含有有害產物(如仇恨符號)的 AI 生成圖片、涉及爭議性、具爭議性或意識形態極化議題的內容,以及避開性相關內容過濾的帶有性暗示的內容。 我們已採取緩解措施,以降低包含不當或冒犯性內容的世代風險,例如輸入與輸出分類器、微調模型及系統訊息。

  • 資訊可靠性:Copilot 在必要時致力於以可靠來源回應,但 AI 可能會犯錯。 它可能會產生無意義的內容,或捏造聽起來合理但事實錯誤的內容。 即使從高權威的網路資料中擷取回應,回應也可能以不完全準確或可靠的方式曲解內容。 我們透過使用者介面和這類文件提醒使用者,Copilot 可能會犯錯。 我們也持續教育使用者了解 AI 的限制,例如鼓勵他們在做決策前再三核實事實,或根據 Copilot 的回應採取行動。 當使用者透過文字與 Copilot 互動時,它會嘗試以高品質的網路數據為基礎,以降低世代間不接地的風險。

  • 多語言效能:不同語言的效能可能有所不同,英語在更新版 Copilot 發布時表現最佳。 提升跨語言效能是關鍵投資領域,近期模型也帶來了效能的提升。

  • 音訊限制:音訊模型可能會帶來其他限制。 廣義來說,語音輸入的音質、非語音噪音、詞彙、口音及插入錯誤,也可能影響 Copilot 是否能以令人滿意的方式處理與回應使用者的音訊輸入。 此外,由於使用 Copilot Voice 時的使用者提示不會觸發網路搜尋,Copilot 可能無法在語音模式下回應當前事件。

  • 依賴網路連線:更新版的 Copilot 體驗依賴網路連線來運作。 連線中斷會影響服務的可用性與效能。

系統效能

在許多 AI 系統中,效能通常以準確度 (來定義,也就是 AI 系統提供正確預測或輸出) 的頻率。 在 Copilot 中,我們專注於將 Copilot 作為一個由 AI 驅動、反映使用者偏好的助理。 因此,兩個不同的使用者可能會對同一輸出對其獨特情況和期望的有用性或相關性有不同看法,這意味著這些系統的效能必須更靈活地定義。 我們普遍認為效能是指應用程式能如用戶預期般運作。

提升系統效能的最佳實務 

用自然且會話化的語言與介面互動。    以使用者舒適的方式與 Copilot 互動,是獲得更好體驗的關鍵。 就像採用技術幫助人們在日常生活中有效溝通一樣,透過使用者熟悉的文字或語音與 Copilot 作為 AI 助理互動,可能有助於獲得更好的結果。

使用者體驗與採用。    有效使用 Copilot 需要使用者了解其功能與限制。 可能會有學習曲線,使用者可能會想參考各種 Copilot 資源, (例如本文件和我們的 Copilot 常見問題) ,以有效互動並受益於服務。

風險的繪製、衡量與管理

如同其他轉型技術,善用 AI 的優勢並非完全沒有風險,而 Microsoft 負責任 AI 計畫的核心部分,旨在識別並繪製潛在風險地圖,衡量風險,並透過建立緩解措施並持續改進 Copilot 來管理。 在以下章節中,我們將說明我們反覆進行的方法,以繪製、衡量及管理潛在風險。

地圖:謹慎規劃與部署前的對抗性測試,如紅隊,有助於我們繪製潛在風險。 推動 Copilot 體驗的底層模型,經過來自跨領域、跨領域測試者的紅隊測試。 這項測試旨在評估最新技術在是否加裝任何額外防護措施時的運作。 這些模型層級練習的目的是產生有害反應,揭示潛在濫用途徑,並識別能力與限制。

在將 Copilot 體驗以有限版本預覽形式公開之前,我們也在應用程式層級進行紅隊分析,評估 Copilot 的不足與漏洞。 這個過程幫助我們更了解系統如何被各種使用者使用,並改進了我們的緩解措施。

衡量:除了將 Copilot 與現有安全評估進行評估外,上述紅隊策略的運用也幫助我們針對識別出的潛在風險(如越獄、有害內容及無根據內容)制定評估與負責任的 AI 指標。

我們結合人類參與者與自動對話生成流程,收集針對這些風險的對話數據。 每次評估會由受過訓練的人工註解者池或自動化註解流程進行評分。 每當產品變更、現有緩解措施更新或提出新的緩解措施時,我們都會更新評估流程,以同時評估產品效能與負責任的 AI 指標。 這些自動化評估情境流程結合了與人類評估者收集的對話,以及由大型語言模型生成的合成對話,這些機器被引導以對抗性方式測試策略。 這些安全性評估都會自動以大型語言模型(LLM)評分。 新開發的評估最初由人工標籤人員評分,他們會閱讀文字內容或聆聽音訊輸出,然後轉換成基於大型語言模型的自動評估。

我們模型的預期行為結合評估流程(包括人工與自動化),使我們能快速大規模進行潛在風險的測量。 隨著時間推移,我們持續擴充測量範圍以評估更多風險。 

管理:隨著我們透過紅隊團隊識別潛在風險與濫用,並以上述方法進行評估,我們也針對 Copilot 的經驗制定了額外的緩解措施。 以下我們將說明其中一些緩解措施。 我們將持續監控 Copilot 的體驗,以提升產品效能及風險緩解策略。 

  • 分階段發布計畫與持續評估。    隨著技術與使用者行為的演進,我們致力於持續學習並改進負責任的 AI 方法。 我們的漸進式釋出策略一直是我們將技術安全從實驗室帶入市場的核心,並致力於以深思熟慮的流程確保 Copilot 體驗的效益。 我們定期對 Copilot 進行調整,以提升產品效能與現有緩解措施,並根據所學成果實施新的緩解措施。

  • 利用分類器與系統訊息來降低潛在風險或濫用。    在回應使用者提示時,LLMs 可能會產生有問題的內容。 我們在上方的系統行為與限制章節中討論了我們試圖限制的內容類型。 分類器與系統訊息是 Copilot 中實施的兩個緩解措施,旨在降低這類內容的風險。 分類器透過分類文字,標示使用者提示或生成回應中可能有害的內容。 我們也運用現有的最佳實務來運用系統訊息,這包括向模型下達指令,使其行為符合 Microsoft 的 AI 原則及使用者期望。

  • 同意 Copilot 圖片上傳。    用戶首次上傳包含臉部的影像給 Copilot 時,將被要求同意將生物特徵資料上傳到 Copilot。 若使用者未選擇加入,圖片將不會傳送至 Copilot。 所有圖片,不論是否包含臉部,都會在對話結束後30天內刪除。

  • 人工智慧揭露。    Copilot 也設計用來告知人們他們正在與 AI 系統互動。 當使用者與 Copilot 互動時,我們提供多種接觸點,幫助他們了解系統能力,告知 Copilot 由 AI 驅動,並溝通限制。 這種體驗的設計旨在幫助使用者充分發揮 Copilot 的效能,並降低過度依賴的風險。 揭露也幫助使用者更了解 Copilot 及其互動方式。

  • 媒體來源。    當 Copilot 產生圖片時,我們啟用了「內容憑證」功能,利用密碼學方法標示所有使用 Copilot 生成的 AI 影像的來源或「來源」。 此技術採用內容與真實性聯盟(Coalition for Content and Authenticity) (C2PA) 制定的標準,為 AI 生成的影像增添更多信任與透明度。

  • 自動內容偵測。    當用戶在聊天提示中上傳圖片時,Copilot 會部署工具偵測兒童性剝削與虐待影像 (CSEAI) 。 Microsoft依美國法律規定,將所有明顯的CSEAI報告給NCMEC) 的國家失蹤與受剝削兒童中心 (。 當使用者上傳檔案進行分析或處理時,Copilot 會部署自動掃描功能,偵測可能導致風險或濫用的內容,例如可能涉及非法活動或惡意程式碼的文字。

  • 使用條款與行為準則。    使用者應遵守 Copilot 適用的使用條款及Microsoft 服務協議行為準則,以及 Microsoft 隱私聲明,這些聲明中包含允許與不可使用的使用內容,以及違反條款的後果。 使用條款亦提供更多揭露資訊,並作為使用者了解 Copilot 的參考資料。 嚴重或反覆違規的用戶可能會被暫時或永久停權。

  • 回饋、監督與監督。    Copilot 的體驗建立在既有工具之上,讓使用者能提交回饋,並由 Microsoft 營運團隊審核。 此外,我們對風險繪製、衡量與管理的風險策略將持續演進,並已根據預覽期間收集的回饋進行改進。

  • 偵測與應對自殺與 Self-Harm 風險。    Copilot 使用機器學習分類器,訓練出可能顯示使用者有自殺或自殘意圖的語言模式。 當偵測到此類內容時,系統會脫離對話,轉而提供一張危機支援資源的求助專線卡片, (例如美國) 的自殺與危機生命線988,鼓勵用戶尋求專業協助。 Copilot 不提供諮詢;其角色僅限於偵測與轉介,以確保使用者安全。

了解更多關於負責任 AI 的資訊

Microsoft 負責任 AI 透明度報告

Microsoft AI 原則

Microsoft 負責任 AI 資源

Microsoft Azure 學習課程關於負責任 AI

了解更多關於 Microsoft Copilot 的資訊

Microsoft Copilot 常見問題

關於本文件

© 2024 年 Microsoft 公司。 著作權所有,並保留一切權利。 本文件以「現狀」提供,僅供參考。 本文件中表達的資訊與觀點,包括網址及其他網路網站參考,可能會在不另行通知的情況下變更。 貴用戶須自行承擔使用風險。 部分例子僅供插圖,屬虛構。 並無意圖或推斷任何真正的關聯。

本文件並非旨在提供法律建議,也不應被解釋為提供法律建議。 您所處的司法管轄區可能對您的 AI 系統有各種監管或法律要求。 如果您對適用於您的系統的法律或法規不確定,尤其是當您認為這些可能影響這些建議時,請諮詢法律專家。 請注意,並非所有建議和資源都適用於所有情境,反之,這些建議和資源也可能對某些情境不夠。

發佈日期:2024/10/01

最後更新:2024/10/01

需要更多協助嗎?

想要其他選項嗎?

探索訂閱權益、瀏覽訓練課程、瞭解如何保護您的裝置等等。