附註: 本文參考了與Microsoft Copilot相關的隱私和安全主題。 它不適用於使用 Entra ID 登入時使用 Microsoft 365 Copilot 。 如需相關資訊,請閱讀企業 資料保護。
交談記錄
我的 Copilot 對話會儲存嗎?
預設情況下,您與 Copilot 的對話會被儲存,您可以查看和存取過去的對話。 例如,如果您已使用 Copilot建立了詳細的旅行行程,則您的對話將被保存。 您可以通過訪問 Copilot 應用程序中的 對話歷史記錄 來返回並引用該對話。
我的 Copilot 對話將如何使用?
您的隱私和信任對我們來說至關重要。 Microsoft只會將您的對話用於 Microsoft 隱私權聲明中解釋的有限目的,以解決問題、診斷錯誤、防止濫用以及監控、分析和改進效能,以便我們為您提供 Copilot 。
我們賦予您決定是否希望我們將您的對話用於其他目的的權力。 您可以控制我們是否可以使用您的對話來:
-
使用 Copilot 個性化您的體驗,並為您提供更量身定制、更有用的體驗,以滿足您的需求。 您可以隨時停用個人化。
-
訓練我們的生成式 AI 模型,為您和其他人創造更好的體驗。 您可以隨時 選擇不使用對話進行模型訓練 。
我的 Copilot 對話會儲存多久?
我可以刪除過去的對話嗎?
是的,您可以在 Copilot中刪除過去的對話。
您可以刪除 對話記錄中的個別對話 ,或 刪除整個對話記錄。
我的 Copilot 對話會對其他使用者可見嗎?
不,你對 Copilot 說的任何話都不會公開。 您的對話和數據永遠不會與其他用戶共享。
當我與 Copilot共享文件時,我的隱私將如何受到保護?
例如,如果您與 Copilot (共享文件,上傳文件並要求 Copilot ) 摘要,則該文件將安全存儲長達 30 天,然後自動刪除。 無論您的隱私設定為何,我們都不會針對您上傳的檔案來訓練 Copilot 生成模型。 您關於該文件的任何對話都將像任何其他對話一樣處理,取決於您對是否允許模型定型和個性化的選擇,並且您可以隨時刪除這些對話。
我應該如何與 Copilot 就機密或敏感話題進行互動?
您不應該提供任何機密或敏感的個人資料,您不希望 Microsoft 用於本常見問題集和 Microsoft 隱私權聲明中所述的用途。 這包括可能揭示您的種族、宗教、性取向或健康狀況等資料。
您可以隨時從對話記錄中刪除先前 Copilot 的對話。 您也可以 控制 Copilot 是否將您的對話用於模型訓練 或 個人化您的體驗。
如果我對隱私或資料保護有疑問怎麼辦?
若要深入瞭解 Microsoft 對隱私權的承諾,請流覽 Microsoft 隱私權聲明和 Microsoft 隱私權。
個人化 & 記憶
Copilot 如何個人化我的體驗?
如果您啟用了個人化功能, Copilot 將開始記住您對話中的關鍵細節,並在未來的對話中使用這些記憶,為您提供更客製化和相關的體驗。
Copilot 記得我的什麼?
如果啟用個人化, Copilot 會記住您分享的關鍵詳細資訊,例如您的姓名、興趣和目標。 Copilot 不記得人口統計資料或其他敏感資料。
您可以隨時編輯或刪除 Copilot 記住的內容,或完全關閉個人化。
我該如何查看、更改或刪除 Copilot 記得的關於我的內容?
您可以隨時 控制 Copilot 對您的記憶 。
個人化預設會開啟嗎?
如果您可以使用個人化功能,預設會開啟。 目前不適用於巴西、中國 ((香港) 、以色列、奈及利亞、南韓和越南除外) 的使用者,或未透過 Microsoft 帳戶或其他第三方驗證登入 Copilot 的使用者。
當您第一次開始使用 Copilot 您會在前幾次對話開始時看到通知,如果為您啟用了個人化,則會定期看到通知。 若要檢查或變更您的個人化設定,請按一下該通知中的連結以選擇退出,或在 Copilot 設定中停用個人化。
如何關閉個人化?
您可以隨時關閉個人化。 閱讀 有關如何在 Copilot 中控制個人化的資訊。
請注意,這些選項僅適用於已登入的使用者,因為未經驗證的使用者會停用個人化。
如果您關閉個人化, Copilot 將忘記您對話的記憶。 您仍然可以查看過去的對話;但是,您未來的 Copilot 體驗將不再個性化。 如果您稍後再次開啟個人化功能, Copilot 會開始記住您與其分享的詳細資料,並再次開始個人化您的體驗。
Copilot 個人化設定是否控制個人化廣告?
Copilot 中的個人化設定不會控制您是否收到個人化廣告,這是您可以單獨選擇的。 您可以隨時變更適用於 Copilot 和其他適用Microsoft服務的個人化廣告設定。
在某些國家/地區,我們還可能會向您顯示提示,要求您決定是否在 Copilot中接收個人化廣告。 如果您選擇不接收個人化廣告,無論是透過個人化廣告設定還是 Copilot特定提示,我們都不會在 Copilot向您投放個人化廣告。
如果您的設定允許我們在 Copilot中投放個人化廣告,並且啟用了 Copilot的個人化設定,我們將使用您的 Copilot 對話記錄來幫助進一步個人化您已經收到的廣告。 請注意,無論您的設定為何, Copilot 都不會向 18 歲以下的經過身份驗證的使用者提供個人化廣告。
如果我關閉個人化,會刪除我的對話記錄嗎?
您可以隨時在 Copilot 設定中關閉個人化。 關閉個人化不會刪除您的對話記錄,但 Copilot 會忘記您對話的記憶,並停止個人化您的體驗。
Copilot 是否根據敏感話題進行個人化互動?
無論您的使用者設定如何, Copilot 的設計都絕不會根據某些敏感主題(例如您的個人屬性 (例如年齡、性別、種族/民族、性取向) 、健康相關資訊以及政治派別和偏好)來個人化與您的互動。 這可以保護您的隱私並防止使用潛在的敏感資訊。 我們已採取措施,從您過去的對話中篩選出可能被視為敏感的內容,即使您的設定中開啟了個人化功能也是如此。
但是,在與您認為敏感的 Copilot 分享資訊時請小心。 您可以隨時控制 Copilot 對您的記憶。
模型訓練
什麼是「模型訓練」?
生成式 AI 是指一類 AI 模型,用於分析數據、尋找模式並使用這些模式來生成或創建新的輸出,例如文本、照片、視頻、代碼、數據等。 「訓練」生成式 AI 模型意味著為其提供資訊,幫助其學習做出預測或決策。 訓練是一個廣泛的概念,包括許多不同的活動,以幫助模型提供更合適的結果。
這些模型使用訓練資料來學習語言中的一般關係,而不是記憶特定的對話。 它們不會儲存或存取原始訓練資料。 相反,生成式人工智慧模型旨在產生新的表達作品和內容。
我們還採取了額外的措施來防止這些模型無意中重現其訓練數據,例如進行測試和構建過濾器來篩選出以前發布或使用的材料。
Microsoft使用哪些外部數據來訓練 Copilot?
Microsoft 使用公開可用的數據,主要從行業標準機器學習數據集和網絡編目(例如搜索引擎)收集。 我們會排除有付費牆的來源、違反我們政策的內容,或使用業界標準方法選擇退出培訓的網站。 最重要的是,我們不會使用來自美國貿易代表美國辦公室 (美國貿易代表辦公室) 臭名昭著的假冒和盜版市場清單中列出的網域的資料進行訓練。
Microsoft 會使用我的數據來定型 AI 模型嗎?
除了 某些類別的用戶 或已選擇退出的用戶外,Microsoft使用來自 Bing、MSN、 Copilot的數據以及與 Microsoft 上的廣告互動進行 AI 訓練。 這包括去識別化的搜尋和新聞資料、與廣告的互動以及您與 Copilot的語音和文字對話。 這些數據將用於改進 Copilot 以及我們的其他產品和服務,為您和其他人創造更好的用戶體驗。
透過使用真實世界的消費者資料來幫助訓練我們的底層生成式 AI 模型,我們可以改善 Copilot 並提供更可靠和相關的體驗。 我們的 AI 模型接觸的對話越多樣化,它們就越能理解和服務重要的區域語言、地理位置、文化參考以及您和其他使用者感興趣的熱門話題。
您也可以控制 Copilot 是否使用您的交談進行模型訓練。
哪些資料會從模型訓練中排除?
我們不會根據以下類型使用者的資料訓練 Copilot :
-
使用者使用組織Entra ID帳戶登入 Copilot 。 您可以進一步 了解企業資料保護。
-
Microsoft 365 應用程式內 Copilot 的使用者,並訂閱個人或家庭。
-
未使用 Microsoft 帳戶或其他第三方驗證) 登入 Copilot (的使用者。
-
未滿 18 歲且已登入 Copilot的使用者。
-
選擇退出模型訓練的使用者。
-
巴西、中國 (的用戶,不包括香港) 、以色列、奈及利亞、韓國和越南。 這意味著 Copilot 將在其中一些市場提供,但在另行通知之前,這些地區的生成式人工智慧模型訓練不會使用任何用戶資料。
我們也限制了用於訓練的資料類型。 我們不會在以下方面訓練 AI 模型:
-
個人帳戶資料,例如您的 Microsoft 帳戶設定檔資料或電子郵件內容。
-
您上傳到 Copilot的檔案內容,儘管您與 Copilot 有關該檔案的任何對話都將像任何其他對話 (一樣處理,並取決於您是否允許在對話) 上進行模型訓練的選擇。
-
上傳影像中的識別資訊。 如果您的 Copilot 對話中包含任何圖像,我們會採取措施對其進行去識別化處理,例如刪除中繼資料或其他個人資料,以及模糊臉部圖像。
-
可能識別您身分的資訊,例如姓名、電話號碼、裝置或帳戶識別碼、敏感個人資料、實際地址和電子郵件地址。
Microsoft 在訓練 AI 模型時如何保護我的資料?
您與我們服務的個人互動是保密的,未經您的許可不會披露。 在訓練 AI 模型之前,我們會刪除可能識別您身份的信息,例如姓名、電話號碼、設備或帳戶標識符、敏感個人數據、實際地址和電子郵件地址。
使用我們的服務時,您的資料將保持私密。 我們將按照 Microsoft 隱私權聲明中的說明保護您的個人資料,並遵守世界各地的隱私權法律。
如何控制我的資料是否用於模型訓練?
如果您使用 Microsoft 帳戶或其他第三方驗證登入 Copilot ,您可以控制是否要將對話用於訓練 Copilot中使用的生成式 AI 模型。 選擇退出將排除您過去、現在和未來的對話,使其無法用於訓練這些 AI 模型,除非您選擇重新加入。 如果您選擇退出,該變更將在 30 天內反映在我們的整個系統中。
如果您未使用 Microsoft 帳戶或其他第三方身份驗證登入 Copilot ,我們不會對 Copilot 進行對話訓練。
閱讀如何 控制對話是否用於模型訓練。
我們最終可能會將模型訓練和選擇退出控制項擴展到某些國家/地區的使用者,我們目前不使用對話歷史記錄進行模型訓練 (請參閱模型訓練中排除了哪些資料?) 。 但我們將逐步這樣做,以確保我們為消費者爭取到這一點,並確保我們遵守世界各地的當地隱私法。
我可以選擇退出模型訓練,但仍能獲得個人化的 Copilot 體驗嗎?
是,您可以選擇退出模型訓練,但仍開啟個人化。 在這種情況下, Copilot 會記住您對話中的關鍵細節,以便為您提供更個人化的回應,但Microsoft不會使用您的對話來訓練 Copilot的生成式 AI 模型。
模型訓練是否適用於 Copilot Pro 或 Microsoft 365?
AI 訓練適用於消費者 Copilot 產品,包括 Copilot Pro。 它不包括具有組織Entra ID帳戶的 Copilot 使用者,以及任何Microsoft 365 消費者使用者或整合在 Microsoft 365 消費者應用程式 (例如 Word、Excel、PowerPoint 或 Outlook) 中的 Copilot 交談。 這些產品的使用者將不會看到此設定,他們的對話也不會用於訓練我們在 Copilot 或其他產品中提供的生成式 AI 模型。
我們認識到商業客戶在各行業和世界各地都有不同的合規要求。 Microsoft 將繼續協助這些組織使用我們提供的租用戶界限和其他控制項,分別識別和管理他們擁有的數據。 若要深入瞭解 Microsoft 如何處理商業客戶的模型定型,請閱讀企業 資料保護。
Copilot 對話是否經過人工審查?
出於產品改進和數字安全目的,一些 Copilot 對話需要接受自動和人工審查。 我們也可能審查在 使用條款中被標記為違反行為準則的對話。 我們的行為準則禁止使用 Copilot 服務創建或分享不當內容或材料。 當懷疑違反行為準則時,會審查一些對話。
我可以選擇不對我的 Copilot 對話進行人工審查嗎?
當懷疑違反行為準則時,作為調查過程的一部分,需要進行有限的人工審查。 為確保我們的服務對每個人來說都是安全可靠的,我們無法選擇退出人工審查。
負責的 AI
Microsoft如何對待負責任的人工智慧 Copilot?
在 Microsoft,我們認真對待負責任的 AI 承諾。 Copilot 是根據我們的人工智慧原則開發的,該原則表明了確保人工智慧系統以負責任的方式開發並以值得人們信任的方式開發的承諾。 我們設計了 Copilot 使用者體驗,以人為本,並開發了保護措施以最大限度地減少錯誤並避免濫用,並且我們不斷改進體驗。 若要進一步瞭解如何負責任地使用 Copilot ,請詳閱我們的使用條款和透明度說明。
Copilot 如何使用互聯網來尋找其信息來源?
Copilot 在網絡上搜索相關內容,然後總結找到的信息以生成有用的回應。 它還引用了它的來源,因此您可以查看和探索它引用的內容的鏈接。
Copilot的回答總是準確的嗎?
Copilot 旨在以可靠的來源做出回應,但人工智慧可能會犯錯誤,而且網路上的第三方內容可能並不總是準確或可靠。 Copilot 可能會歪曲它找到的信息,您可能會看到聽起來令人信服但不完整、不準確或不適當的回應。 在根據 Copilot的反應做出決定或採取行動之前,請運用您的判斷力並仔細檢查事實。 查看 Copilot的引文是開始檢查準確性的好地方。
如要分享網站意見或回報問題,請在「設定」中選取「提供意見」,或使用行動應用程式和網頁中每個回應下方的旗幟圖示 Copilot 。 在 Copilot 應用程式中,您也可以長按回應並選擇「舉報」。 我們將繼續審查您的反饋,為所有人提供安全的搜索體驗。
Copilot 需要採取哪些保障措施來確保內容安全?
負責任的人工智慧是一個旅程,我們不斷評估和改進 Copilot ,以使體驗更加安全。 我們對用於訓練 Copilot的資訊進行嚴格的內容過濾,並在向您提供回應之前採取措施評估 Copilot對潛在安全風險的回應。 我們也有適當的系統來檢測和防止虐待行為。
此外,為了提高 Copilot的安全性和風險檢測能力,我們與外部研究機構合作,審查和評估 Copilot 對話。 例如,外部研究組織可以幫助審查 Copilot 對話日誌,以了解用於尋找極端主義內容的各種查詢,比較整個行業的趨勢,並建議更好地發現和減輕傷害的技術。
您可以在我們的透明度說明中進一步了解我們的安全方法。
如果我看到意外或令人反感的內容,我該怎麼辦?
雖然我們設計了 Copilot 體驗以避免分享意外的冒犯性內容或參與潛在有害的主題,但您仍然可能會看到意想不到的結果。 我們不斷努力改進我們的技術,以防止有害內容。
如果您遇到有害或不適當的內容,請點擊「設定」中的「提供回饋」來提供意見或回報問題,或使用行動應用程式和 Copilot 網頁中每個回應下方的旗幟圖示。 在 Copilot 行動應用程式中,您也可以長按回應並選擇「舉報」。 我們將繼續審查您的反饋,以提供安全的體驗。
人工審查 Copilot 對話如何改善您的體驗?
訓練有素的 AI 專家可能會審查 Copilot 對話,以構建、評估和提高我們 AI 模型的準確性和安全性。 我們使用人工反饋來確保用戶提示的質量輸出,從而改善您的體驗。 使用我們的服務時,您的資料將保持私密。 我們將按照 Microsoft 隱私權聲明中的說明保護您的個人資料,並遵守世界各地的隱私權法律。
有時感覺 Copilot 是另一個人。 為什麼會這樣呢?
Copilot 旨在透過響應式、對話式和上下文感知能力,成為有用的 AI 小幫手 。 它可以用日常語言與您聊天,快速回复,並參考您已經分享過的信息。 您可以使用 Copilot 來回答問題、尋找資訊、協助寫作並指導您完成任務。 Copilot 的開發旨在讓人感覺直覺和支持。 這些特徵可以使與 AI 小幫手 的互動感覺就像與同事或朋友的自然對話。
然而,重要的是要記住,Copilot 是一種工具而不是一個人,並且沒有自己的意見或情感。 它是一個軟體系統,透過發現資料中的模式來產生回應,並且可能沒有現實世界的完整背景。 Copilot 可能並不總是有正確的答案,特別是對於複雜和情緒化的情況,或其他資料可能不足的領域。 它在這裡支持您做出自己的決定,而不是取代它們。
有時我與 Copilot 的對話會讓人感到困惑或情緒沉重。 我該怎麼做?
如果聊天感到混亂或情緒沉重,最好花一些時間停下來反思。 如果您不確定 Copilot 所說的任何內容或您對互動的感受,您也可以與您信任的人聯繫;這可能包括朋友、家人、您在社區中認識的人、輔導員或其他專業人士。