Hinweis: Die sprachfeatures, auf die in diesem Artikel verwiesen wird, werden nach und nach veröffentlicht und sind möglicherweise noch nicht für alle Benutzer verfügbar. Die allgemeine Verfügbarkeit für alle Benutzer wird in Kürze veröffentlicht.
Dieses Feature misst die Nutzung, die Engagementrate und die Abbruchrate von Sprachchats. Die Qualität der Antworten wird offline gemessen, indem die Audio- und Textausgaben des Modells anhand von Relevanz-, Such- und Halluzinationskriterien in verschiedenen Sprachen, Umgebungen und Akzenten getestet werden.Transparenzhinweis für Microsoft 365 Copilot, um mehr zu erfahren.
Weitere Informationen finden Sie unterSie können in Sprachchats natürlich sprechen und haben die Möglichkeit, Audioantworten durch einfaches Sprechen zu unterbrechen. Copilot hört auf zu sprechen und hört Ihnen zu, wenn sie unterbrochen wird, und gibt neue Antworten basierend auf neuen Spracheingaben.
Um die beste Antwortqualität zu erzielen, sollten Sie die Hintergrundgeräusche während aktiver Sprachchats reduzieren.
Neue audiospezifische Sicherheitsmechanismen sind in das Echtzeitmodell GPT-4o integriert, das für einen Sprachchat verwendet wird, wie in der offiziellen Dokumentation von OpenAI beschrieben. Es gibt auch zusätzliche Überprüfungen auf geistiges Eigentum, Urheberrechte, Jailbreaks und schädliche Inhalte, um mit den KI-Sicherheitspraktiken von Microsoft in Einklang zu stehen.
Weitere Informationen finden Sie im Microsoft Responsible AI Transparency Report und in unserem Engagement für iso/IEC 42001:2023 Artificial Intelligence Management System Standards.For more information, please, the Microsoft Responsible AI Transparency Report and our commitment to ISO/IEC 42001:2023 Artificial Intelligence Management System Standards.
Das Modell wird mit einer Vielzahl von Benutzerstimmungen trainiert, um eine konsistente Leistung über verschiedene Akzente und Sprachmuster hinweg zu gewährleisten. Um dies zu bewerten, testete OpenAI das Modell mit einer festen Assistent Stimme und simulierten Benutzereingaben, die von der Sprach-Engine generiert wurden. Diese Eingaben stammen aus zwei Quellen: offizielle Systemstimme und 27 verschiedene englische Sprachbeispiele, die verschiedene Länder und Geschlechter darstellen. Das Modell wurde sowohl hinsichtlich der Fähigkeiten (Wissens- und Common Sense-Aufgaben) als auch des Sicherheitsverhaltens bewertet. Die Ergebnisse zeigten, dass die Leistung bei verschiedenen menschlichen Stimmen im Vergleich zu Systemstimmen nur geringfügig – aber nicht signifikant – war, was auf eine starke Verallgemeinerung über englische Akzente hindeutet.
Der Sprachchat ist derzeit nur in ausgewählten Sprachen verfügbar. Eine vollständige Liste finden Sie unter Unterstützte Sprachen für Microsoft 365 Copilot.
Sprachchat nutzt Web-Grounding, um Antworten mit aktuellen Ereignissen und Informationen zu erweitern und die tatsächliche Genauigkeit und Nützlichkeit zu verbessern.
Nicht alle funktionen, die in Text unterstützt werden, sind während eines Sprachchats verfügbar, z. B. das Erstellen von Bildern, Dateien oder Das Erwähnen von Agents.
Sprachchat in Microsoft 365 Copilot verwendet keine Benutzerdaten zum Trainieren des Modells.
Generative KI-Features sind bestrebt, basierend auf den verfügbaren Daten genaue und informative Antworten bereitzustellen. Die Antworten sind jedoch u. U. nicht immer genau, da sie auf der Grundlage von Mustern und Wahrscheinlichkeiten in Sprachdaten generiert werden. Nutzen Sie Ihr eigenes Urteilsvermögen und überprüfen Sie die Fakten, bevor Sie aufgrund der Antworten Entscheidungen treffen oder Maßnahmen ergreifen.
Obwohl diese Funktionen darauf abzielen, das Teilen unerwarteter anstößiger Inhalte in den Ergebnissen zu vermeiden und Maßnahmen zu ergreifen, um die Anzeige potenziell schädlicher Themen zu verhindern, können Sie dennoch unerwartete Ergebnisse erhalten. Wir arbeiten ständig daran, unsere Technologie zu verbessern, um Probleme proaktiv im Einklang mit unseren Prinzipien für verantwortungsvolle KI anzugehen.
Copilot enthält Filter, um anstößige Sprache in den Eingabeaufforderungen zu blockieren und die Synthetisierung von Vorschlägen in sensiblen Kontexten zu vermeiden. Wir arbeiten weiterhin daran, das Filtersystem zu verbessern, um anstößige Ausgaben intelligenter zu erkennen und zu entfernen. Wenn Sie anstößige Ausgaben sehen, senden Sie bitte Feedback, indem Sie die Daumen-nach-oben-/Daumen-nach-unten-Symbole verwenden, damit wir unsere Sicherheitsvorkehrungen verbessern können. Microsoft nimmt diese Herausforderung sehr ernst und ist bestrebt, sie meistern.
Microsoft 365 Copilot basiert auf dem umfassenden Microsoft-Ansatz für Sicherheit, Compliance und Datenschutz.
Wenn Sie Microsoft 365 Copilot in Ihrem organization (mit Ihrem Geschäfts-, Schul- oder Unikonto) verwenden, finden Sie weitere Informationen unter Daten, Datenschutz und Sicherheit für Microsoft 365 Copilot.
Sobald ein Sprachchat beendet ist, verwenden Sie die Daumen-nach-oben- und Daumen-nach-unten-Schaltflächen, um Feedback oder Verbesserungsvorschläge zu geben.