什么是 Viva 中的 Microsoft 365 Copilot Pulse?

Viva 中的 Microsoft 365 Copilot Pulse 使用大型语言模型 (LLM) 技术,使用报告详细信息(例如平均分数、多选选项选择和打开文本响应)生成Viva Pulse 报表的摘要。 生成报表时,摘要将包含在电子邮件和 Teams 通知中,以便 Pulse 作者可以快速大致了解其结果。 作者可以与其团队成员共享摘要,以证明对响应的确认和透明度。

如何评估Viva 中的 Copilot Pulse 的性能?

Viva 中的 Copilot Pulse 的性能使用以下关键指标进行评估:

  • 精度和回顾:这些指标对于评估Viva 中的 Copilot Pulse 生成的摘要的质量至关重要。 精度限定生成的摘要中有多少是相关的,而召回率则确定检索了多少个相关摘要。

  • 用户满意度:为了衡量用户满意度,将收集用户调查反馈,以评估用户对生成的摘要的满意度。

  • 通用性:为了评估结果在不同用例中的通用化程度,Viva 中的 Copilot Pulse 针对一组不同的数据和任务进行测试。 这涉及到在一系列方案和域上评估系统性能,这些方案和域不属于初始训练数据。

为了帮助衡量初始性能,请外部专家和测试人员查找系统中的漏洞或偏见。 系统使用 Microsoft 的 Azure AI 评估工具进行了仔细测试,有意添加了潜在风险和安全漏洞,以查看其处理方式。 此过程有助于识别潜在问题并提高系统的可靠性。 评估过程正在进行中,并根据用户反馈不断更新和改进,以确保Viva 中的 Copilot Pulse 的准确性、公平性和通用性。

Viva 中的 Copilot Pulse 有哪些限制? 用户在使用系统时如何最大程度地减少这些限制的影响?

支持 Viva 中的 Copilot Pulse 报告摘要的基础模型是使用 GPT-4o 模型训练的。 一个限制是,如果报表包含不可读或难以辨认的响应,则它可能不会提供相关的报表摘要。 若要缓解此问题,请确保调查响应已明确编写且易于理解。

哪些作因素和设置允许有效和负责任地使用 Viva 中的 Copilot Pulse?

Pulse 中的 Copilot 设计有一个可靠的筛选器系统,该系统可主动阻止冒犯性语言,并防止在敏感上下文中生成建议。 它不断改进,以检测、处理和删除Viva 中的 Copilot Pulse 生成的冒犯性内容,包括偏见、歧视性或辱骂性输出。

建议报告在使用 Viva 中的 Copilot Pulse 时遇到的任何冒犯性建议。 

了解更多信息:

Viva 中的 Copilot 

查看和共享 Pulse 反馈结果

使用 Viva 中的 Copilot Pulse 的报告摘要

管理员) Viva Pulse (的精细访问控制

需要更多帮助?

需要更多选项?

了解订阅权益、浏览培训课程、了解如何保护设备等。