選取標題以取得詳細資訊。
Copilot 結合大型語言模型 (LLM) 與 Whiteboard 的功能,協助您與同儕以視覺方式共同作業。 您可以使用自然語言要求 Copilot 產生想法、將想法組織成主題,以及摘要白板內容。
Whiteboard 中的 Copilot 是根據 Microsoft 內部使用量和公用數據,透過廣泛的手動和自動測試來進行評估。 我們已透過自定義數據集執行更多評估,以獲得攻擊性和惡意提示, (用戶的問題) 和回應。 此外,Whiteboard 中的 Copilot 也會持續與使用者在線意見反應一起評估, (上下豎起大拇指來) 。
目前,Whiteboard 中的 Copilot 只知道在 Copilot 區塊中撰寫的內容,以及白板上的附註內容。 其建立的內容不會以任何外部頁面內容或鏈接內容為基礎。
在 Whiteboard 中,Copilot 支援許多語言,未來還會支援更多語言。
無法自訂 Whiteboard 中的副 Whiteboard。 系統管理員可以選擇為特定用戶啟用 Copilot,而使用者則可根據需求選擇要詢問 Copilot 的問題。
當使用者執行下列動作時,Whiteboard 中的副工具最適合回應:
-
提供足夠的內容,讓 Copilot 進行處理。
-
使用支持的語言。 Copilot 會以支持的語言回應。
Whiteboard 中副駕駛支持多種語言。 若要深入瞭解,請參閱 Microsoft Copilot 支持的語言。
Copilot 和 Microsoft 365 是以 Microsoft 對安全性、合規性和隱私權的全方位方法為基礎。
如需隱私權的詳細資訊,請參閱下列資訊:
-
如果您正在使用組織中的適用於 Microsoft 365 的 Copilot (使用公司或學校帳戶),請參閱 適用於 Microsoft 365 的 Microsoft Copilot 的資料、隱私權和安全性。
-
如果您在家裡使用 Microsoft 365 應用程式中的 Copilot 做為 Copilot Pro 的一部分 (使用您的個人 Microsoft 帳戶),請參閱 Copilot Pro: Microsoft 365 應用程式和您的隱私權。
Generative AI 功能會根據可用的數據,努力提供正確且資訊豐富的回應。 不過,答案不一定都能正確無誤,因為它們是根據語言資料中的模式和機率所產生。 在做出決策或根據回應採取行動之前,請先使用您自己的判斷並仔細檢查事實。
雖然這些功能具備安全性功能,可避免在結果中分享非預期的不當攻擊性內容,並採取步驟來避免顯示潛在有害的主題,但您可能仍會看到未預期的結果。 我們持續努力改善我們的技術,以按照 我們負責的 AI 原則主動處理問題。
如果您發現產生的回應不正確,或者您遇到有害或不當的內容,請按下拇指,並在意見反應窗體中提供其他批註,以提供該意見反應。 此意見反應可協助我們改善及減少此內容。