注意: 本文中引用的语音功能正在逐步发布,可能尚未可供所有用户使用。 不久将正式发布给所有用户。
此功能衡量语音聊天的使用情况、参与率和放弃率。 通过针对不同语言、环境和重音的相关性、搜索和幻觉条件测试模型的音频和文本输出,以脱机衡量响应质量。 有关详细信息,请访问智能 Microsoft 365 Copilot 副驾驶®的透明度说明了解详细信息。
在语音聊天中可以自然说话,并且只需说话即可中断音频响应。 当被打断时,Copilot 将停止说话和倾听,并根据新的语音输入提供新的响应。
为了获得最佳响应质量,建议在活动语音聊天期间减少背景噪音。
新的特定于音频的安全机制已集成到用于语音聊天的实时 GPT-4o 模型中,如 OpenAI 的官方文档中所述。 此外,还需要对知识产权、版权、越狱和有害内容进行额外的检查,以符合Microsoft的 AI 安全做法。
有关详细信息,请查看Microsoft负责任 AI 透明度报告和我们对 ISO/IEC 42001:2023 人工智能管理系统标准的承诺。
该模型根据各种用户语音进行训练,以确保不同口音和语音模式的性能一致。 为了评估这一点,OpenAI 使用固定助手语音和语音引擎生成的模拟用户输入测试了模型。 这些输入来自两个来源:官方系统的声音和代表不同国家和性别的27个不同英语语音样本。 该模型根据功能 (知识以及常识性任务) 和安全行为进行评估。 结果显示,与系统语音相比,不同人类声音的性能仅略低,但并不明显,这表明英语口音具有很强的通用性。
语音聊天目前仅以所选语言提供。 有关完整列表,请参阅智能 Microsoft 365 Copilot 副驾驶®支持的语言。
语音聊天利用 Web 地面来增强当前事件和信息的响应,从而提高事实准确性和实用性。
在语音聊天中(例如创建图像、文件或提及代理)时,并非所有文本支持的功能都可用。
Microsoft 365 Copilot 中的语音聊天不使用用户数据来训练模型。
生成式 AI 功能致力于根据可用数据提供准确而信息丰富的答复。 但是,答案可能并不总是准确,因为它们是基于语言数据中的模式和概率生成。 在做出决定或根据答复采取行动之前,请使用自己的判断并仔细检查事实。
虽然这些功能具有缓解措施,以努力避免在结果中共享意外的冒犯性内容,并采取措施防止显示潜在的有害主题,但你仍可能会看到意外的结果。 我们一直在努力改进我们的技术,以根据我们负责任的 AI 原则主动解决问题。
Copilot 包含筛选器,用于阻止提示中的冒犯性语言,并避免在敏感上下文中合成建议。 我们将继续努力改进筛选器系统,以更智能地检测和删除冒犯性输出。 如果看到冒犯性输出,请使用竖起/向下大拇指图标提交反馈,以便我们可以改进安全措施。 Microsoft 非常重视这一挑战,并且致力于解决它。
智能 Microsoft 365 Copilot 副驾驶®基于Microsoft全面的安全性、合规性和隐私方法。
如果你在组织中使用智能 Microsoft 365 Copilot 副驾驶® (工作或学校帐户) ,请参阅智能 Microsoft 365 Copilot 副驾驶®的数据、隐私和安全性。
语音聊天结束后,使用“竖起大拇指”和“向下大拇指”按钮提供反馈或改进建议。