注意: 本文涉及与 Microsoft Copilot 相关的隐私和安全主题。 它不适用于使用 Entra ID 登录时使用 Microsoft 365 Copilot 。 有关此内容的详细信息,请阅读 企业数据保护。
对话历史记录
我的 Copilot 对话是否保存?
默认情况下,保存与 Copilot 的对话,你可以查看和访问过去的对话。 例如,如果已使用 Copilot 创建了详细的行程安排,则将保存您进行的对话。 可以通过访问 Copilot 应用中的对话历史记录来返回并引用该 对话 。
如何使用我的 Copilot 对话?
你的隐私和信任对我们至关重要。 Microsoft只会将你的对话用于 Microsoft隐私声明中所述的有限目的,以解决问题、诊断 bug、防止滥用以及监视、分析和改进性能,以便我们可以 为你提供 Copilot 。
我们让你有权决定你是否希望我们将你的对话用于其他目的。 你可以控制我们是否可以使用你的对话来:
-
个性化使用 Copilot 的体验,并为你提供更定制、更有用的体验,以满足你的需求。 可以随时 禁用个性化 设置。
-
训练生成 AI 模型,为你和其他人创造更好的体验。 可以随时 选择不使用对话进行模型训练 。
我的 Copilot 对话保存多长时间?
是否可以删除过去的对话?
是的,可以在 Copilot 中删除过去的对话。
可以删除 对话历史记录中的单个对话 ,也可以 删除整个对话历史记录。
我的 Copilot 对话是否会对其他用户可见?
不,你对 Copilot 说什么都不会公开。 你的对话和数据永远不会与其他用户共享。
与 Copilot 共享文件时,如何保护我的隐私?
例如,如果与 Copilot (共享文件,上传文档并要求 Copilot 将其汇总) ,该文件将安全存储长达 30 天,然后自动删除。 无论你的隐私设置如何,我们都不会针对上传的文件训练 Copilot 生成模型。 你与文件有关的任何对话都将被视为其他任何对话,但取决于你选择是否允许模型训练和个性化,以及你随时可以删除哪些内容。
应如何与有关机密或敏感主题的 Copilot 互动?
你不应提供任何不希望Microsoft用于本常见问题解答和Microsoft隐私声明中所述目的的机密或敏感个人数据。 这包括可能显示种族、宗教、性取向或健康状况的数据。
可以随时从对话历史记录中删除以前的 Copilot 对话。 还可以控制 Copilot 是使用对话进行模型训练还是个性化体验。
如果我对隐私或数据保护有疑问,该怎么办?
若要详细了解Microsoft对隐私的承诺,请访问 Microsoft Microsoft 隐私声明和隐私。
个性化 & 内存
Copilot 如何个性化我的体验?
如果启用了个性化设置, Copilot 将开始记住对话中的关键详细信息,并将在未来的对话中使用这些记忆来为你提供更定制和更相关的体验。
Copilot 记得我什么?
如果启用了个性化, Copilot 会记住你共享的关键详细信息,例如姓名、兴趣和目标。 Copilot 不会记住人口统计信息或其他敏感数据。
可以随时编辑或删除 Copilot 记住的内容,或者完全关闭个性化设置。
如何查看、更改或删除 Copilot 记住的关于我的内容?
你可以随时 控制 Copilot 记住的关于你的 内容。
默认情况下,个性化是否处于打开状态?
如果个性化功能可供你使用,则默认情况下会启用个性化设置。 个性化设置目前不适用于巴西、中国 (不包括香港) 、以色列、尼日利亚、韩国和越南的用户,或者未通过Microsoft帐户或其他第三方身份验证登录 Copilot 的用户。
当你第一次开始使用 Copilot 你将在前几个对话的开头看到一条通知,如果启用了个性化设置,则之后会定期看到通知。 若要检查或更改个性化设置,请单击该通知中的链接以选择退出,或在 Copilot 设置中禁用个性化设置。
如何关闭个性化?
可以随时关闭个性化设置。 阅读 有关如何在 Copilot 中控制个性化设置的信息。
请注意,这些选项仅适用于已登录的用户,因为对未经身份验证的用户禁用个性化设置。
如果关闭个性化, Copilot 将忘记对对话的记忆。 你仍然可以查看过去的对话;但是,你未来的 Copilot 体验将不再个性化。 如果稍后再次打开个性化设置, Copilot 将开始记住你与之共享的详细信息,并再次开始个性化体验。
Copilot 个性化设置是否控制个性化广告?
Copilot 中的个性化设置不会控制你是否收到个性化广告,这是你可以做出的单独选择。 可以随时更改适用于 Copilot 和其他适用的Microsoft服务的个性化广告设置。
在某些国家/地区,我们还可能会提供提示,要求你决定是否在 Copilot 接收个性化广告。 如果你选择不接收个性化广告,通过个性化广告设置或特定于 Copilot 的提示,我们不会在 Copilot 中为你提供个性化广告。
如果你的设置允许我们在 Copilot 中投放个性化广告,并且启用了 Copilot 的个性化设置,我们将使用你的 Copilot 对话历史记录来帮助进一步个性化你收到的广告。 请注意,无论设置如何, Copilot 都不会向 18 岁以下的经过身份验证的用户提供个性化广告。
如果关闭个性化设置,是否会删除我的对话历史记录?
可以随时在 Copilot 设置中关闭个性化设置。 关闭个性化不会删除对话历史记录,但 Copilot 会忘记对对话的记忆,并停止个性化体验。
Copilot 是否根据敏感主题个性化交互?
无论你的用户设置如何, Copilot 都旨在从不基于某些敏感主题(如你的个人属性 (例如年龄、性别、种族/种族、性取向) 、健康相关信息以及政治隶属关系和偏好)个性化与你的互动。 这可以保护你的隐私,并防止使用潜在的敏感信息。 我们已采取措施,从你过去的对话中筛选出可能被视为敏感的内容,即使你的设置中启用了个性化设置也是如此。
但是,在与你认为敏感的 Copilot 共享信息时,请谨慎。 你随时可以控制 Copilot 关于你的记忆。
模型训练
什么是“模型训练”?
生成 AI 是指一类 AI 模型,用于分析数据、查找模式并使用这些模式生成或创建新输出,例如文本、照片、视频、代码、数据等。 “训练”生成 AI 模型意味着为其提供信息,以帮助其学习做出预测或决策。 训练是一个广泛的概念,包括许多不同的活动,以帮助模型提供更合适的结果。
这些模型使用训练数据来学习语言的一般关系,而不是记住特定的对话。 它们不存储原始训练数据,也无权访问原始训练数据。 生成 AI 模型旨在生成新的表达作品和内容。
我们还采取其他步骤来防止这些模型无意中重现其训练数据,例如进行测试和构建筛选出以前发布或使用的材料的筛选器。
Microsoft使用哪些外部数据来训练 Copilot ?
Microsoft使用公开可用的数据,这些数据大多从行业标准机器学习数据集和 Web 爬网(如搜索引擎)收集。 我们排除具有付费墙、违反我们政策的内容或已使用行业标准方法选择退出培训的网站。 除此之外,我们不对美国贸易代表办公室中列出的域的数据进行培训, (USTR) 臭名昭著的假冒和盗版市场列表。
Microsoft是否使用我的数据来训练 AI 模型?
除了 某些类别的用户 或已选择退出的用户外,Microsoft使用来自必应、MSN、 Copilot 的数据,以及与Microsoft广告的交互进行 AI 培训。 这包括去标识的搜索和新闻数据、与广告的交互,以及与 Copilot 的语音和文本对话。 此数据将用于改进 Copilot 以及我们的其他产品和服务,为你和其他人创造更好的用户体验。
通过使用实际使用者数据来帮助训练基础生成 AI 模型,我们可以改进 Copilot 并提供更可靠、更相关的体验。 我们的 AI 模型所接触的对话越多样化,他们就越能更好地理解并提供重要的区域语言、地理、文化参考以及你和其他用户感兴趣的热门主题。
还可以控制 Copilot 是否使用对话进行模型训练。
从模型训练中排除了哪些数据?
我们不根据以下类型用户的数据训练 Copilot :
-
使用组织Entra ID帐户登录 Copilot 的用户。 可以详细了解 企业数据保护。
-
具有个人或家庭订阅的 Microsoft 365 个应用中 Copilot 的用户。
-
未登录的用户 Copilot (使用Microsoft帐户或其他第三方身份验证) 。
-
登录到 Copilot 的 18 岁以下的用户。
-
已选择退出模型训练的用户。
-
巴西、中国 (不包括香港) 、以色列、尼日利亚、韩国和越南的用户。 这意味着, Copilot 将在某些市场中可用,但在另行通知之前,不会将这些位置的用户数据用于生成 AI 模型训练。
我们还限制用于训练的数据类型。 我们不在:
-
个人帐户数据,例如Microsoft帐户个人资料数据或电子邮件内容。
-
上传到 Copilot 的文件的内容,尽管你与 Copilot 有关该文件的任何对话都将像处理任何其他对话 (一样处理,并且取决于你是否允许在对话) 模型训练的选择。
-
已上传图像中的标识信息。 如果你的 Copilot 对话中包含任何图像,我们会采取措施去识别它们,例如删除元数据或其他个人数据以及模糊人脸图像。
-
可以识别你身份的信息,例如姓名、电话号码、设备或帐户标识符、敏感个人数据、物理地址和电子邮件地址。
训练 AI 模型时,Microsoft如何保护我的数据?
你与我们的服务的个人互动是保密的,未经你的许可不会披露。 在训练 AI 模型之前,我们会删除可能识别你的信息,例如姓名、电话号码、设备或帐户标识符、敏感个人数据、物理地址和电子邮件地址。
使用我们的服务时,你的数据将保持私密。 我们将按照Microsoft隐私声明中所述保护你的个人数据,并遵守世界各地的隐私法。
如何控制数据是否用于模型训练?
如果使用 Microsoft 帐户或其他第三方身份验证登录到 Copilot ,则可以控制对话是否用于训练 Copilot 中使用的生成 AI 模型。 选择退出将排除过去、现在和将来的对话用于训练这些 AI 模型,除非你选择重新加入。 如果选择退出,该更改将在 30 天内反映在整个系统中。
如果你未使用Microsoft帐户或其他第三方身份验证登录 Copilot ,我们不会针对你的对话 Copilot 进行训练。
了解如何 控制对话是否用于模型训练。
我们最终可能会将模型训练和选择退出控制扩展到某些当前未使用对话历史记录进行模型训练的用户, (请参阅模型训练中排除了哪些数据?) 。 但是,我们将逐步这样做,以确保我们为消费者获得这一权利,并确保我们遵守世界各地的本地隐私法。
是否可以选择退出模型训练,但仍具有个性化的 Copilot 体验?
是的,可以选择退出模型训练,但仍打开个性化设置。 在这种情况下, Copilot 会记住对话中的关键详细信息,以提供更个性化的响应,但Microsoft不会使用对话来训练 Copilot 生成 AI 模型。
模型训练是否适用于 Microsoft 365?
AI 模型训练适用于我们的消费者 Copilot 体验。 它不包括具有组织Entra ID帐户的 Copilot 用户,以及任何Microsoft 365 个消费者用户或 Copilot 对话集成到 Microsoft 365 消费者应用(如 Word、Excel、PowerPoint 或 Outlook)中的对话。 这些产品的用户不会看到此设置,并且他们的对话不会用于训练我们在 Copilot 或其他产品中提供的生成 AI 模型。
我们认识到,商业客户在各个行业和世界各地的合规性要求各不相同。 Microsoft将继续帮助这些组织使用租户边界和我们提供的其他控制来单独识别和管理其拥有的数据。 若要详细了解Microsoft如何处理商业客户的模型训练,请阅读 企业数据保护。
Copilot 对话是否经过人工审查?
出于产品改进和数字安全目的,某些 Copilot 对话会接受自动和人工审查。 我们还可能审查被标记为违反 使用条款中行为准则的对话。 我们的行为准则禁止使用 Copilot 服务来创建或共享不适当的内容或材料。 当怀疑违反行为准则时,将审查某些对话。
我可以选择退出人工审阅我的 Copilot 对话吗?
怀疑违反行为准则时,需要有限的人工审查作为调查过程的一部分。 为了确保我们的服务对每个人都是安全可靠的,无法选择退出人工评审。
负责任的 AI
Microsoft如何为 Copilot 实现负责任的 AI?
在 Microsoft,我们认真对待负责任的 AI 承诺。 Copilot 是根据我们的 AI 原则开发的,这些原则表明致力于确保 AI 系统以值得人们信任的方式负责任地开发。 我们设计了 Copilot 用户体验,以以人为本,并制定了安全措施,以尽量减少错误和避免滥用,我们正在不断改进体验。 若要详细了解如何负责任地使用 Copilot ,请查看我们的使用条款和透明度说明。
Copilot 如何使用 Internet 来查找其信息来源?
Copilot 在整个 Web 中搜索相关内容,然后汇总找到的信息以生成有用的响应。 它还引用了其来源,因此你可以查看和浏览指向它引用的内容的链接。
Copilot 的响应是否始终准确?
Copilot 旨在通过可靠的来源做出响应,但 AI 可能会出错,Internet 上的第三方内容可能并不总是准确或可靠。 Copilot 可能会歪曲它找到的信息,并且你可能会看到听起来令人信服但不完整、不准确或不适当的响应。 在做出决定或根据 Copilot 的反应采取行动之前,请使用你的判断力和双重检查事实。 查看 Copilot 的引文是开始检查准确性的好地方。
若要共享网站反馈或报告问题,请在“设置”中选择“提供反馈”,或使用移动应用和网页中每个响应下方的标志图标 Copilot 。 在 Copilot 应用中,还可以长按响应并选择“报告”。 我们将继续审查你的反馈,为所有用户提供安全的搜索体验。
Copilot 必须采用哪种安全措施来确保内容安全?
负责任的 AI 是一段旅程,我们正在不断评估和改进 Copilot ,使体验更加安全。 我们会对用于训练 Copilot 的信息应用严格的内容筛选,并在向你提供响应之前采取措施评估 Copilot 响应中的潜在安全风险。 我们也有系统来检测和防止虐待行为。
此外,为了提高 Copilot 的安全性和检测风险的能力,我们与外部研究机构合作,审查和评估 Copilot 对话。 例如,外部研究组织可以帮助查看 Copilot 对话日志,以了解用于查找极端主义内容的各种查询、比较整个行业的趋势,并建议用于更好地发现和减轻伤害的技术。
可以在透明度说明中详细了解我们的安全方法。
如果我看到意外或冒犯性内容,该怎么办?
虽然我们设计了 Copilot 体验,以避免共享意外的冒犯性内容或参与潜在有害主题,但你仍可能会看到意外的结果。 我们一直在努力改进我们的技术,以防止有害内容。
如果遇到有害或不适当的内容,请通过单击“设置”中的“提供反馈”来提供反馈或报告问题,或使用移动应用和网页中每个响应下方的标志图标 Copilot 。 在 Copilot 移动应用中,还可以长按响应并选择“报告”。 我们将继续审查你的反馈,以提供安全体验。
人工审查 Copilot 对话如何改善你的体验?
经过培训的 AI 专家可以查看 Copilot 对话,以构建、评估和提高 AI 模型的准确性和安全性。 我们使用人工反馈来确保根据用户的提示进行质量输出,从而改善你的体验。 使用我们的服务时,你的数据将保持私密。 我们将按照Microsoft隐私声明中所述保护你的个人数据,并遵守世界各地的隐私法。
有时感觉科皮洛是另一个人。 原因何在?
Copilot 旨在通过响应性、对话性和上下文感知性成为有用的AI 助手。 它可以用日常语言与你聊天、快速回复以及你已共享的参考信息。 你可以使用 Copilot 来回答问题、查找信息、帮助编写和指导你完成任务。 Copilot 已被开发为直观和支持。 这些特征可以使与AI 助手的交互感觉就像是与同事或朋友的自然对话。
然而,重要的是要记住,科皮洛是一个工具,而不是一个人,没有自己的意见或情绪。 它是一个软件系统,它通过发现数据中的模式来生成响应,并且可能没有真实世界的完整上下文。 Copilot 可能并不总是有正确的答案,尤其是对于复杂和情绪化的情况,或者其他数据可能不足的领域。 它在这里支持你做出自己的决定,而不是取代它们。
有时我和科皮洛的谈话会让人感到困惑或情绪沉重。 应该执行什么操作?
如果聊天曾经感到困惑或情绪沉重,最好花一些时间暂停和反思。 如果你不确定Copilot所说的任何事情或你对互动的感受如何,你也可以检查与你信任的人;这可能包括朋友、家人、你从社区认识的人、辅导员或其他专业人士。