Sign in with Microsoft
Sign in or create an account.
Hello,
Select a different account.
You have multiple accounts
Choose the account you want to sign in with.

上次更新:2024 年 2 月

Bing 中 Copilot 的基本概念   

簡介  

Microsoft 在 2023 年 2 月推出了全新的 Bing,這是一種 AI 強化的 Web 搜尋體驗。 它透過摘要網頁搜尋結果並提供聊天體驗來支持使用者。 使用者也可以產生創意內容,例如詩詞、笑話、故事,以及使用 Bing 影像建立工具 影像。 全新 AI 增強型 Bing 會在各種來自 Microsoft 和 OpenAI 的進階技術上執行,包括 GPT-4、 (LLM) 的尖端大型語言模型,以及 DALL-E,這是一種深度學習模型,可從 OpenAI 的自然語言描述產生數位影像。 我們在公開發行前幾個月一直使用這兩種模型,以開發一組自定義的功能和技術,以加入新 Bing 中的這個最傳統 AI 技術和網路搜尋。  在 2023 年 11 月,Microsoft 將 Bing 新增至 Bing 中的 Copilot。

在 Microsoft,我們非常重視對負責的 AI 的承諾。 Bing 中的 Copilot 體驗是根據 Microsoft 的 AI 原則Microsoft 負責任的 AI 標準所開發,並與公司內負責的 AI 專家合作開發,包括 Microsoft 負責的 AI Office、我們的工程小組、Microsoft Research 和 Aether。 您可以 在這裡深入了解負責的 AI。  

在本檔中,我們描述對 Bing 中 Copilot 負責 AI 的方法。 發行前,我們採用最新狀態的方法來識別、測量及降低潛在風險和濫用系統,並確保其對用戶的權益。 自初次發行以來,Bing 中的 Copilot 持續不斷演進,我們也持續學習並改善負責的 AI 工作。 這份檔將會定期更新,以傳達我們不斷演進的程式和方法。   

主要字詞  

Bing 中的 Copilot 是 AI 增強型 Web 搜尋體驗。 由於它是以強大的新技術執行,因此我們首先定義了一些關鍵詞彙。  

機器學習模型,可協助將數據分類為標籤的課程或資訊類別。 在 Bing 的 Copilot 中,我們使用分類器的其中一個方法是協助偵測使用者提交或系統產生的潛在有害內容,以減少內容的產生,以及濫用或濫用系統。 

當使用者在尋找資訊時,Bing 中的 Copilot 會以網頁搜尋結果為基礎。 這表示我們針對使用者的查詢或來自網路的高層級內容提示,將所提供的回應置中,並提供網站連結,讓使用者可以深入瞭解。 Bing 會以高度權重的功能來排名網路搜尋內容,例如相關性、品質和信念,以及最新性。 我們會在「Bing 如何傳遞 搜尋 結果」中詳細描述這些概念 (請參閱「Bing 如何排名 搜尋 結果」中的「品質和信念」) 。   

我們會將基礎回應視為來自 Bing 中 Copilot 的回應,其中的語句是由輸入來源中包含的資訊所支援,例如來自查詢或提示的 Web 搜尋結果、Bing 對事實檢查資訊的 知識庫,以及針對聊天體驗,來自聊天的最近交談記錄。 無底哩回應是指那些輸入來源中沒有建立語句的回應。  

在此內容 (LLM) 的大型語言模型是受訓練以大量文字數據來預測文字順序的 AI 模型。 LLM 可以執行各種不同的工作,例如文字產生、摘要、翻譯、分類等等。  

元提示是一個可引導系統行為的程式。 元提示的一部分可協助將系統行為與 Microsoft AI 原則和使用者期望對齊。 例如,元提示可能包含一行,例如「以使用者選擇的語言溝通」。  

這是一種方法或方法組合,專門用來降低在 Bing 中 Copilot 中使用 AI 導向功能所可能帶來的潛在風險。  

用戶傳送至 Bing 的文字、語音、影像及/或其他啟用查詢,作為在 Bing 中推動新 AI 導向產生體驗的模型輸入。 例如,使用者可能會輸入下列提示:  

我正在規劃九月的周年紀念日行程。有哪些地方可以從倫敦特吋的 3 小時內搭乘班機?”  

使用者從搜尋列傳送文字至 Bing 進行網頁搜尋。 在這份檔中,我們區分了網路搜尋) 的查詢 (,以及 Bing) 中 AI 導向產生體驗的提示 (。 例如,使用者可能會輸入下列查詢來搜尋網路:  

倫敦索引機場附近的旅遊目的地」  

專家使用的技術來評估系統的限制和弱點,並測試計劃之安全漏洞的有效性。 紅色小組測試和壓力測試可用來識別潛在風險,而且與系統性地測量風險不同。   

Bing 中 Copilot 在回應提示時輸出的文字、影像、圖表等。 「回應」的同義字包括「完成」、「世代」和「解答」。 例如,Bing 可能會針對上述「提示」定義中所使用的提示提供下列回應:   

恭喜您的周年紀念日!您可以從倫敦天吋的 3 小時內,前往許多地方。根據一個來源,週末從倫敦經由飛機出遊的一些周末成員包括比勒堡、哥本哈根、雷克雅維克和斯德哥爾摩 1、2。另一個來源建議 9 月歐洲的一些最佳地點是 Krakow、或其他裡斯本 3、4。您也可以查看從倫敦匯入至不同目的地的直接航班,並瞭解對您有什麼吸引力。希望您有一次很棒的旅行!”  

預定用途和新的 AI 體驗  

Bing 的預定用途是將使用者與相關的搜尋結果連線、檢閱網路上的結果以尋找及摘要使用者正在尋找的答案、協助使用者調整研究範圍以獲得聊天體驗的答案,以及協助使用者建立內容以激發創意。 下方 Bing 的生成 AI 體驗中的 Copilot 支援成為由 AI 技術提供之網頁副業者的目標。  

綜述。 當使用者在 Bing 的 Copilot 上提交搜尋查詢時,Bing 系統會處理查詢、進行一或多個 Web 搜尋,並使用熱門的 Web 搜尋結果產生要向使用者展示的資訊摘要。 這些摘要包含可協助使用者查看並輕鬆存取用來協助建立摘要之搜尋結果的參照。 摘要可顯示在搜尋結果頁面右側及聊天體驗中。  

聊天體驗。 除了摘要之外,使用者還可以透過文字、影像或語音輸入,在 Bing 系統中與 Copilot 聊天、詢問後續問題以釐清搜尋並尋找新資訊,以及提交提示以產生創意內容。 當 Bing 中的 Copilot 在回應中摘要搜尋結果時,也會將參照包含在聊天體驗中。   

創意內容的產生。 在聊天體驗和搜尋頁面上,使用者都可以在 Bing 中 Copilot 的協助下,建立詩、笑話、故事、影像和其他內容。  影像是由舊版 Bing 影像建立工具) Designer (所建立,用戶可以透過 Designer 首頁以及 Copilot 頁面存取此功能。 

Bing 中的 Copilot 如何運作?  

透過 Bing 中的 Copilot,我們開發了一種創新的方法,將最新狀態的 LLM 帶入網路搜尋。 當使用者在 Bing 的 Copilot 中輸入提示時,提示、最近的交談記錄、元提示和熱門搜尋結果會以輸入方式傳送至 LLM。 此模型會使用使用者的提示和最近的交談記錄來產生回應,以上下文將要求內容化、將回應與 Microsoft AI 原則和使用者期望對齊的元提示,以及搜尋結果對來自網路的現有高排名內容中的底端回應。   

回應會以數種不同的格式呈現給使用者,例如傳統網頁內容連結、AI 產生的摘要、影像和聊天回應。 仰賴 Web 搜尋結果的摘要和聊天回復將包含參考數據,以及回應下方的「深入瞭解」區段,以及用來接聽回應之搜尋結果的連結。 使用者可以按下這些連結,進一步了解主題,以及建立摘要或聊天回應所用的資訊。    

在 Copilot 體驗中,用戶可以在提示中加入內容,並與系統回應互動,進一步指定搜尋興趣,藉此以交談方式執行網路搜尋。 例如,使用者可能會詢問後續問題、要求其他釐清資訊,或以交談方式響應系統。 在聊天體驗中,使用者也可以從預先撰寫的建議中選取回應,我們稱之為聊天建議。 這些按鈕會出現在 Copilot 的每一個響應之後,並提供建議提示以在聊天體驗中繼續交談。 聊天建議也會與搜尋結果頁面上的摘要內容一起顯示,做為聊天體驗的進入點。  

Bing 中的 Copilot 也可讓使用者在 Bing 的協助下,建立故事、詩詞、歌詞和影像。 例如,當 Bing 中的 Copilot 偵測到使用者意圖產生創意內容 (時,提示會以「寫下...」開頭,) ,系統會在大多數情況下產生回應使用者提示的內容。 同樣地,當 Bing 中的 Copilot 偵測到使用者意圖產生影像 (例如,提示開頭是「畫一個...」) ,系統會在大多數的情況下,產生回應使用者提示的影像。 在 [聊天體驗] 中的 [視覺 搜尋] 中,透過使用者的相機所拍攝的影像、從使用者的裝置上傳或從網路連結的影像,使用者可以提示 Bing 中的 Copilot 瞭解影像內容、解譯和回答相關問題。  使用者也可以將檔案上傳到 Copilot,以解譯、轉換、處理或計算來自他們的資訊。 在使用者可透過 Bing 中的 Copilot 存取的 Microsoft Designer 體驗中,用戶不僅可以使用提示產生影像,還可以調整影像大小或調整影像大小,或進行像是模糊背景或讓色彩更生動的編輯。 

擁有 Microsoft 帳戶 (MSA) 的用戶現在也可以選擇訂閱提供增強體驗的 Copilot Pro,包括加速效能、更快建立 AI 影像,以及很快地建立您專屬的 Copilot GPT。 Copilot Pro 目前在受限制的國家/地區提供使用,我們計劃近期在更多市場中提供 Copilot Pro。

在 Copilot 體驗中,用戶可以存取 Copilot GPT。 像 Designer GPT 一樣的 Copilot GPT 是 Microsoft Copilot 的自定義版本,主題是您特別感興趣的主題,例如健身、出差和烹飪,可協助您將模糊或一般的想法轉換成包含文字和影像等輸出的更特定提示。 在 Copilot 中,使用者可以看到可用的 Copilot GPT,而且擁有 Copilot Pro 帳戶的使用者很快就會可以存取 Copilot GPT Builder,這項功能可讓使用者建立及設定自定義的 Copilot GPT。 上述適用於 Bing 中 Copilot 的負責任 AI 安全安全措施適用於 Copilot GPT。

若要深入瞭解 Copilot Pro 和 Copilot GPTs 的運作方式,請造訪這裡

Bing 中的 Copilot 致力於提供多樣化且全方位的搜尋結果,並致力於免費和開放存取資訊。 同時,我們的產品品質工作也包括努力避免不小心向用戶宣傳可能有害的內容。 如需有關 Bing 如何為內容進行排名的詳細資訊,包括如何定義相關性以及網頁的品質與信箱,請參閱「Bing 網站管理員指導方針」。   如需 Bing 內容仲裁原則的詳細資訊,請參閱「Bing 如何提供搜尋結果」。   

在 Windows 中的 Copilot 體驗中,Bing 中的 Copilot 可與 Windows 操作系統搭配使用,以提供 Windows 特定的技能,例如變更使用者的主題或背景,以及變更音訊、藍牙和網路等設定。 這些體驗可讓使用者使用 LLM 的自然語言提示來設定其設定並改善用戶體驗。 應用程式特定功能也可以從第三方應用程式外掛程式提供。 這些功能可以自動化重複的工作,並提高使用者效率。 由於 LLM 偶爾可能會出錯,因此會提供適當的使用者確認提示,讓使用者成為可以進行變更的最終仲裁者。 

識別、測量及降低風險  

與其他轉換技術一樣,利用 AI 的優點並非沒有風險,而且 Microsoft 負責任 AI 計劃 的核心部分是設計來識別潛在風險、測量其發生的可能性,以及建置防護功能來解決這些問題。 在 AI 原則和負責任 AI 標準的引導下,我們努力在 Bing 中找出、測量並降低潛在風險和濫用 Copilot 的風險,同時保護新體驗所提供的轉換和有説明的用途。 在下列各節中,我們描述我們用來識別、測量及降低潛在風險的反覆方法。   

在模型層級,我們的工作開始於 2022 年夏末期的 GPT-4 探索分析。 這包括與 OpenAI 共同進行廣泛的紅色小組測試。 這項測試的設計目的是要評估最新技術在不套用任何其他防護措施的情況下的運作方式。 我們目前明確的目的是要產生有害的回應、找出可能的誤用途徑,以及識別功能和限制。 我們在OpenAI和 Microsoft 之間結合的學習有助於模型開發方面的進展,而且對於我們而言,Microsoft告知我們對風險的理解,並為 Bing 中 Copilot 的早期緩和策略貢獻貢獻。  

除了模型層級的紅色小組測試之外,多階段的專家小組已針對 Copilot 進行數輪應用程式層級的紅色小組測試,Bing AI 體驗,然後再於我們有限的發行預覽中公開這些測試。 此程式協助我們更加了解系統如何被對應行為者利用,並改善我們的安全性。 非對應壓力測試者也會針對測驗和弱點廣泛評估 Bing 的新功能。 發行后,Bing 中新的 AI 體驗已整合到 Bing 工程組織現有的生產測量和測試基礎結構。 例如,來自不同地區和背景的紅色小組測試人員會持續且有系統地嘗試入侵系統,而他們的發現會用來展開 Bing 用來改善系統的數據集。  

紅色小組測試和壓力測試可能會出現特定風險的實例,但在生產環境中,使用者會與 Bing 中的 Copilot 進行數百萬種不同的交談。 此外,交談具有多重回轉和關係型,識別交談中有害的內容是一項複雜的工作。 為了在 Bing AI 體驗中進一步瞭解並解決 Copilot 的風險潛在風險,我們開發了專為這些新 AI 體驗開發其他負責的 AI 指派,以測量可能的風險,例如越行符號、有害內容和非前景的內容。 我們也已透過部分自動化度量管線啟用縮放度量。 每次產品變更、更新現有的安全措施或提出新的安全措施時,我們都會更新我們的測量管道,以評估產品效能和負責的 AI 指派。  

舉例來說,針對有害內容更新的部分自動化度量管線包括兩項主要創新:交談模擬和自動、人性化驗證的交談註釋。 首先,負責的 AI 專家建置範本,以擷取交談的結構和內容,以產生不同類型的有害內容。 然後將這些範本提供給交談代理程式,該專員在 Bing 中以假設的使用者身分與 Copilot 互動,產生模擬交談。 為了識別這些模擬交談是否包含有害內容,我們採用了專家語言客體通常會用來為數據加上卷標的指導方針,並修改這些準則供 GPT-4 以縮放方式為交談加上卷標,並精簡指導方針,直到模型標示的交談和人性化的交談之間有顯著的一樣。 最後,我們使用標示為模型的交談來計算負責任的 AI 指派,以在降低有害內容時擷取 Bing 中 Copilot 的效能。   

我們的度量管線可讓我們快速執行測量潛在風險的量值。 由於我們在預覽期間和進行中的紅色小組測試期間發現新問題,因此我們會繼續展開度量集以評估其他風險。  

由於我們已透過紅色小組測試和壓力測試等程式找出潛在風險和誤用,並以上述創新的方法加以測量,因此我們開發了一些額外的安全措施,以供傳統搜尋使用。 在下方,我們說明其中一些緩和功能。 我們會持續監控 Bing AI 體驗中的 Copilot,以改善產品效能和降低效能。  

分階段發行,連續評估。 我們致力於隨著技術和使用者行為的發展,持續學習並改善負責的 AI 方法。 我們的增量發行策略一直是我們如何將技術安全地從實驗室移至世界中的核心部分,而且我們致力於一個刻意且周密的程式,以確保 Bing 中 Copilot 的優點。 限制可在預覽期間存取的人員人數,可讓我們探索 Bing 中的 Copilot 使用方式,包括使用者可能如何誤用它,因此我們可以嘗試在更廣泛的發行之前減少新問題。 例如,我們要求使用者在存取全新的 Bing 體驗之前,先驗證使用他們的 Microsoft 帳戶。 未經驗證的使用者只能存取有限的體驗預覽。 這些步驟可防止濫用行為,並協助我們視需要 (,) 針對違反管理辦法的行為採取適當的行動。  我們每天都會在 Bing 中變更 Copilot,以改善產品效能、改善現有的緩和功能,以及在預覽期間針對我們的學習實作新的緩和功能。  

以搜尋結果為底數。 如上所述,Bing 中的 Copilot 是專為在使用者尋求資訊時,網頁搜尋結果中的資訊所支援的回應所設計。 例如,系統會提供來自最上層搜尋結果的文字,以及透過元圖示登入其回應的指示。 不過,在摘要網頁內容時,Bing 中的 Copilot 可能會在回應中包含其輸入來源中不存在的資訊。 換句話說,它可能會產生沒有結果的結果。 我們的早期評估指出,在特定類型的提示或主題中,聊天中的非預期結果可能比其他類型更普遍,例如要求數學計算、財務或市場資訊 (例如公司收益、股票效能數據) ,以及確切的事件日期或專案特定價格等資訊。 用戶在檢視摘要搜尋結果時,無論在搜尋結果頁面或聊天體驗中,應一律謹慎並運用最佳判斷力。 我們已採取數個措施,以降低使用者可能過度依賴摘要案例和聊天體驗中未產生之內容的風險。 例如,Bing 中 Copilot 中以搜尋結果為基礎的回應包括來源網站的參照,供使用者驗證回應並深入瞭解。 使用者也會清楚注意到他們正在與 AI 系統互動,並建議檢查 Web 結果來源數據,以協助他們運用最佳判斷力。  

AI 型分類器和元提示可降低潛在風險或濫用。 使用 LLM 可能會產生問題內容,而造成風險或濫用。 範例可能包括與自我傷害、暴力、圖形內容、智慧財產權、不正確資訊、有害語音或可能與非法活動相關之文字的輸出。 分類器和元提示是 Bing 中 Copilot 中實作的兩種緩和功能範例,可協助降低這類內容的風險。 分類器會將文字分類,以在搜尋查詢、聊天提示或產生的回應中標幟不同類型的潛在有害內容。 Bing 使用 AI 型分類器和內容篩選,這些篩選會套用至所有搜尋結果和相關功能;我們特別設計了額外的提示分類器和內容篩選器,以解決 Bing 中的 Copilot 功能可能帶來的風險。 標幟會產生潛在的緩和功能,例如不會將產生的內容傳回使用者、將用戶轉送到其他主題,或將使用者重新導向至傳統搜尋。 元提示需要提供指引模型行為的指示,包括讓系統的行為符合 Microsoft 的 AI 原則和使用者期望。 例如,元提示可能包含一行,例如「以使用者選擇的語言溝通」。   

在 Bing 中 Copilot 的 Visual 搜尋 中保護隱私權。 當使用者將影像作為聊天提示的一部分上傳時,Bing 中的 Copilot 會先採用臉部模糊技術,然後再將影像傳送給 AI 模型。 臉部模糊是用來保護影像中個人的隱私權。 臉部模糊技術仰賴上下文線索來判斷要模糊的位置,並且會嘗試模糊所有臉部。 當臉部模糊時,AI 模型可能會比較輸入的影像與因特網上公開影像的影像。 因此,例如 Bing 中的 Copilot 可以在籃球場上從該玩家的相片中識別出一位著名的籃球運動員,方法是建立一個數位表示法,反映該玩家的澤西編號、澤西色彩、籃球隊服等等。Bing 中的 Copilot 不會儲存上傳影像中人員的數值表示,也不會與第三方共用。 Bing 中的 Copilot 會使用使用者上傳的影像數位表示,以回應使用者的提示,然後在聊天結束後的 30 天內刪除這些影像。    

如果使用者向 Bing 中的 Copilot 詢問上傳影像的相關信息,聊天回復可能會反映臉部模糊對模型提供上傳影像相關信息的能力的影響。 例如,Bing 中的 Copilot 可能會將某人描述為臉部模糊。    

限制交談移位。 在預覽期間,我們得知很長的聊天會話可能會產生重複、沒有説明或與 Bing 預定語調中 Copilot 不一致的回應。 為了解決此交談的不動,我們限制了每個聊天會話中包含用戶問題和 Bing 中 Copilot 回復 (交換) 次數。 我們會持續評估其他方法以減輕此問題。  

提示進行進修。 在某些情況下,使用者的提示可能不明確。 發生這種情況時,Bing 中的 Copilot 可能會使用 LLM 在提示中協助建立更多詳細數據,以確保使用者獲得他們正在尋找的回應。 這種提示進位並不仰賴使用者或其先前搜尋的任何知識,而是仰賴 AI 模型。 這些修訂的查詢會顯示在使用者的聊天記錄中,與其他搜尋一樣,也可以使用產品內控件刪除。  

以使用者為中心的設計和用戶體驗介入。 以使用者為中心的設計和用戶體驗是 Microsoft 處理負責任 AI 方法的一個重要層面。 目標是讓產品設計符合使用者的需求和期望。 當使用者第一次與 Bing 中的 Copilot 互動時,我們提供了各種不同的觸控點,專門協助他們了解系統功能、向他們揭露 Bing 中的 Copilot 是由 AI 提供,以及通訊限制。 此體驗的設計方式可協助使用者充分利用 Bing 中的 Copilot,並將過度依賴的風險降到最低。 體驗元素也可協助用戶進一步瞭解 Bing 中的 Copilot 及其互動。 這些包含負責的 AI (專用的聊天建議,例如 Bing 如何使用 AI? 為什麼 Bing 中的 Copilot 無法針對某些主題做出回應?) 、限制的說明、使用者可以深入瞭解系統運作方式和回報意見反應的方式,以及輕鬆瀏覽回應中顯示的參考數據,以向用戶顯示已接定回應的結果和頁面。  

AI 揭露。 Bing 中的 Copilot 提供幾個可進行有意義的 AI 揭露的觸控點,使用者會在其中收到與 AI 系統互動的通知,以及深入瞭解 Bing 中 Copilot 的機會。 讓使用者具備此知識,可協助他們避免過度依賴 AI,並了解系統的強項和限制。  

媒體驗證。Microsoft Designer 啟用了「內容認證」功能,此功能會使用密碼編譯方法來標記在 Designer 上建立之所有 AI 產生的影像之來源或「驗證」。 隱形數位浮浮水印功能會顯示原始建立的來源、時間和日期,而此資訊無法變更。 技術採用由內容和真品 (C2PA 所設定的標準,) 為 AI 產生的影像增添一層額外的信任和透明度。 Microsoft 是 C2PA 的共同撰寫者,並以核心數位內容驗證技術為貢獻。 

使用規定和管理辦法。 此資源規範 Bing 中 Copilot 的使用。 使用者應遵守使用 規定和管理辦法,除其他事項外,還應告知他們不允許和不允許的使用,以及違反條款的後果。 使用規定也會為使用者提供額外的揭露資訊,並方便使用者瞭解 Bing 中的 Copilot。   

作業和快速回應。 我們也會在 Bing 的持續監視和營運程式中使用 Copilot 來處理 Bing 中的 Copilot 收到訊號或收到報告時,指出可能的濫用或違反 使用規定或管理辦法的情況。  

意見反應、監控和監督。 Bing 中的 Copilot 體驗是以現有工具為基礎建置,可讓使用者提交意見反應並回報疑慮,Microsoft 的營運小組會檢閱這些意見反應。 Bing 的營運程式也已展開,以納入 Bing 體驗中 Copilot 中的功能,例如更新 [ 回報疑慮 ] 頁面,以包含使用者在模型協助下產生的新內容類型。   

隨著我們深入瞭解,我們識別、測量及降低風險的方法將會持續演進,而且我們已經根據預覽期間收集到的意見反應進行改善。     

自動偵測內容。 當使用者在聊天提示中上傳影像時,Bing 中的 Copilot 會部署工具,在 CSEAI (CSEAI) 中偵測兒童性犯罪和濫用影像,其中最顯眼的 PhotoDNA 哈希比對技術。 Microsoft 開發的 PhotoDNA 可協助尋找已知 CSEAI 的重複專案。 根據美國法律的要求,Microsoft 會將所有明顯的 CSEAI 報告至國家兒童 (受惡意探索兒童 (中心) 。 當使用者上傳檔案以進行分析或處理時,Copilot 會部署自動掃描來偵測可能導致風險或濫用的內容,例如可能與非法活動或惡意代碼相關聯的文字。

保護隱私權  

Microsoft 對於隱私權是基本人權的信念,已瞭解 Microsoft 在 Bing 體驗中開發和部署 Copilot 的每一個階段。 我們承諾保護所有用戶的隱私權,包括提供個人數據的透明度與控制,並透過數據最小化和目的限制的設計整合隱私權,是 Bing 中 Copilot 的基礎。 隨著我們逐步改進在 Bing 的生成 AI 體驗中提供 Copilot 的方法,我們將持續探索保護隱私權的最佳方式。 此檔將會隨著我們的更新而更新。 如需有關 Microsoft 如何保護我們用戶隱私權的詳細資訊,請參閱 Microsoft 隱私聲明。  

在 Windows 中的 Copilot 體驗中,Windows 技能可透過聊天交談分享用戶資訊,做為其功能的一部分。 這會受到使用者核准的約束,在使用者資訊與聊天交談共用之前,系統會顯示UI提示以確認使用者意圖。

Microsoft 會繼續將兒童和青少年的需求視為 Bing 中 Copilot 新產生 AI 功能的風險評估的一部分。 識別使用者未滿 13 歲或當地法律所指定之所有 Microsoft 子女帳戶都無法登入以存取全新的 Bing 體驗。   

如上所述,我們已針對所有用戶實作保護措施,以減輕可能有害的內容。 在 Bing 中的 Copilot 中,結果會設定為 Bing SafeSearch 的 [嚴格] 模式,該模式在主要 Bing 搜尋中具有最高等級的安全防護,進而防止包括青少年使用者在內的使用者接觸潛在有害的內容。 除了本文件和我們有關聊天功能的 常見問題 中所提供的資訊之外,有關 Bing 中的 Copilot 如何運作以避免在搜尋結果中對非預期的不當內容做出回應的詳細資訊,請 參閱此處。  

Microsoft 已承諾不根據在線行為將個人化廣告提供給其 Microsoft 帳戶中出生日期識別為未滿 18 歲的兒童。 這個重要的保護將延伸到 Bing 中 Copilot 中的廣告。 使用者可能會根據用來與 Bing 互動的查詢或提示,看到關係型廣告。  

若要釋放產生 AI 的轉換可能性,我們必須透過讓個人瞭解其數據的使用方式,並提供有意義的數據選擇和控制,來建立對技術的信任。 Bing 中的 Copilot 專門用來排列人性化代理的優先順序,方法是提供產品運作方式及其限制的相關信息,以及透過將我們強大的消費者選擇和控制延伸到 Bing 中的 Copilot 功能。   

Microsoft 隱私聲明提供我們保護客戶之透明隱私權做法的相關信息,並且會針對可讓我們的用戶能夠檢視和管理其個人資料的控件設定資訊。 為了協助確保使用者在與 Bing 的新交談功能互動時擁有所需的資訊,產品內揭露會告知用戶他們正與 AI 產品互動,而且我們提供進一步 常見問題 連結,以及有關這些功能運作方式的說明。 Microsoft 將繼續聽取使用者的意見反應,並視需要進一步詳細瞭解 Bing 的交談功能,以支援對產品運作方式的理解。   

Microsoft 也提供其用戶強大的工具,讓他們對其個人資料行使權利。 對於 Bing 中 Copilot 所收集的數據,包括透過使用者查詢和提示收集的數據, Microsoft 隱私權儀錶板 會提供經過驗證的 (登入) 使用者,提供行使其數據主體權利的工具,包括提供用戶檢視、導出及刪除儲存的交談記錄的能力。 Microsoft 會持續取得有關他們想要如何管理新 Bing 體驗的意見反應,包括透過使用上下文中的數據管理體驗。   

Bing 中的 Copilot 也遵循了 Microsoft 針對 Bing 的傳統搜尋功能所開發和改良的程式,接受歐洲權利下忘記的要求。 所有使用者都可以 在這裡回報所產生之內容和回應的疑慮,而我們的歐洲使用者可以使用 此窗體 提交要求,在右側的歐洲封鎖搜尋結果,以便忘記。   

Bing 中的 Copilot 會尊重使用者的隱私權選擇,包括先前在 Bing 中所做的隱私權選擇,例如透過 Cookie 橫幅和 Microsoft 隱私權儀錶板中可用的控件要求的數據收集和使用同意。 為了協助使用者制定明智的決策,我們使用了內部審查程式,仔細檢查如何向使用者提供選擇。 

除了可透過 Microsoft 隱私權儀錶板取得的控件,可讓用戶檢視、導出及刪除其搜尋歷程記錄,包括其聊天記錄的元件、已驗證且已啟用產品中的聊天記錄功能的用戶可透過產品內控件檢視、存取及下載聊天記錄。 用戶可以隨時流覽 Bing 設定頁面,從聊天記錄清除特定聊天,或完全關閉聊天記錄功能。 使用者也可以選擇是否允許個人化以個人化解答來存取更量身打造的體驗。 用戶隨時可以在 Bing [設定] 頁面的 [聊天設定] 中選擇加入並退出個人化。  從聊天記錄清除特定聊天,可防止它們用於個人化。  
 
如需聊天記錄和個人化的詳細資訊,請參閱 Bing 常見問題中 Copilot 中的使用者。 

Bing 中的 Copilot 是以隱私權為考慮而建置,因此僅視需要收集和使用個人資料,且不再需要保留。 如上所述,Bing 中 Copilot 中的視覺 搜尋 功能會部署在使用者上傳時模糊影像中臉部的機制,因此不會進一步處理或儲存臉部影像。 如需有關 Bing 收集的個人資料、使用方式,以及其儲存和刪除方式的詳細資訊,請參閱 Microsoft 隱私聲明,其中也提供 Bing 新聊天功能的相關信息。   

Bing 中的 Copilot 具有數據保留和刪除原則,可協助確保僅視需要保留透過 Bing 聊天功能收集的個人資料。   

我們會繼續學習並改進在 Bing 中提供 Copilot 的方法,並以此方式繼續跨各個領域合作,以將 AI 創新與人類價值和基本權利對齊,包括保護年幼用戶和隱私權。   

搭配商業數據保護的副駕駛 

Microsoft 於 2023 年 7 月以免費附加元件的形式,於 2023 年 7 月以免費附加元件的形式發行具有商業數據保護的 Copilot,前身為 Bing Chat Enterprise (“BCE”) 。 搭配商業數據保護的 Copilot 是企業使用者的 AI 增強型 Web 搜尋體驗。 

如同 Bing 中的 Copilot,當具有商業數據保護的 Copilot 使用者在介面中輸入提示時,提示、立即交談、熱門搜尋結果和元提示會傳送為 LLM 的輸入。 此模型會使用提示和即時交談記錄來產生回應,以上下文將要求內容化、將回應與 Microsoft AI 原則和使用者期望對齊的元結果,以及搜尋結果,以根據來自網路的現有高排名內容中的底層回應。 其運作方式與本檔中所述的 Bing 中 Copilot 相同,但搭配商業數據保護的 Copilot 僅仰賴即時交談記錄, (而非最近的交談記錄) ,因為儲存的聊天記錄不是目前支援的功能。 Designer和視覺 搜尋 現已在此版本中提供。 

與其他轉換技術一樣,利用 AI 的優點並非沒有風險,而且 Microsoft 負責任 AI 計劃的核心部分是設計來識別潛在風險、測量其發生的可能性,以及建置防護功能來解決這些問題。 同樣地,上述 Microsoft 在識別、測量及降低 Bing 中 Copilot 潛在風險所做的努力描述,也適用於此版本,下方說明一些安全性降低功能的說明: 

分階段發行,連續評估。 與 Copilot Bing 非常類似,針對具有商業數據保護的 Copilot,我們也採用增量發行方法。 2023 年 7 月 18 日,提供商業數據保護的 Copilot 成為適用於具有特定 M365 帳戶的合格企業客戶的免費預覽,以便為其企業用戶開啟。 在通知合格企業客戶的 30 (30) 天后,具有商業數據保護的 Copilot 成為這些相同客戶的「預設設定」。 自此之後,特定教育教職員 M365 帳戶也能使用具有商業數據保護的 Copilot。 具有商業數據保護的 Copilot 已於 2023 年 12 月 1 日提供給某些企業客戶。 在未來,我們計劃透過商業數據保護擴充對 Copilot 的存取,讓更多 Microsoft Entra ID 使用者。

使用規定和管理辦法。 具有商業數據保護之 Copilot 的用戶必須遵守終端使用者使用規定。 這些使用規定會告知使用者不允許和不允許的用途,以及違反條款的後果。  

作業和快速回應。 我們也使用 Bing 中的 Copilot 持續監控和營運程式來解決搭配商業數據保護的 Copilot 收到訊號或收到報告時,指出可能的不當使用或違反使用者使用規定的情況。 

意見反應、監控和監督。 搭配商業數據保護的 Copilot 使用與 Bing 中 Copilot 相同的工具,讓使用者提交意見反應並回報疑慮,Microsoft 的營運小組會檢閱這些意見反應。 Bing 的營運程式中的 Copilot 也已擴充,以配合具有商業數據保護體驗的 Copilot 功能,例如更新 [回報疑慮] 頁面,以包含使用者在模型協助下產生的新內容類型。  

為了協助確保使用者在與 Copilot 與商業數據保護互動時擁有所需的資訊,本檔底部提供產品檔,包括常見問題和深入瞭解頁面。 

使用者在 Copilot 中透過商業數據保護產生的提示和回應,會依照企業數據處理標準進行處理和儲存。 提供商業數據保護的 Copilot 目前僅供企業客戶及其經過驗證的成人使用者使用,因此我們目前不會預期兒童或青少年成為 Copilot 的終端使用者,並提供商業數據保護。 此外,搭配商業數據保護的 Copilot 不會提供任何以行為為目標的廣告給使用者。 相反地,任何顯示的廣告只會是關係型相關廣告。  

深入了解

本檔是 Microsoft 更廣泛努力的一部分,旨在將我們的 AI 原則付諸實踐。 若要深入瞭解,請參閱:

Microsoft 負責任 AI 的方法

Microsoft 負責的 AI 標準

Microsoft 負責的 AI 資源  

責任 AI 上的 Microsoft Azure Learning 課程  

關於這份檔  

© 2023 Microsoft。 著作權所有,並保留一切權利。 本檔是以「原樣」方式提供,僅供參考。 此檔中所表示的信息和檢視,包括 URL 及其他因特網網站參照,可能會在不另行通知的情況下變更。 貴用戶須自行承擔使用風險。 有些範例僅供圖例使用,且具有虛構性。 無意或推斷任何實際關聯。  

Need more help?

Want more options?

探索訂閱權益、瀏覽訓練課程、瞭解如何保護您的裝置等等。

社群可協助您詢問並回答問題、提供意見反應,以及聆聽來自具有豐富知識的專家意見。

Was this information helpful?

How satisfied are you with the translation quality?
What affected your experience?
By pressing submit, your feedback will be used to improve Microsoft products and services. Your IT admin will be able to collect this data. Privacy Statement.

Thank you for your feedback!

×