Bei Microsoft anmelden
Melden Sie sich an, oder erstellen Sie ein Konto.
Hallo,
Wählen Sie ein anderes Konto aus.
Sie haben mehrere Konten.
Wählen Sie das Konto aus, mit dem Sie sich anmelden möchten.

Letzte Aktualisierung: Februar 2024

Die Grundlagen von Copilot in Bing   

Einführung  

Im Februar 2023 hat Microsoft das neue Bing eingeführt, eine KI-erweiterte Websuchumgebung. Es unterstützt Benutzer, indem websuchergebnisse zusammengefasst und eine Chaterfahrung bereitgestellt wird. Benutzer können auch kreative Inhalte wie Gedichte, Witze, Geschichten und mit Bing Image Creator Bilder generieren. Das neue KI-erweiterte Bing läuft auf einer Vielzahl fortschrittlicher Technologien von Microsoft und OpenAI, darunter GPT-4, ein hochmodernes Modell für große Sprachen (LLM) und DALL-E, ein Deep Learning-Modell, um digitale Bilder aus Beschreibungen natürlicher Sprache zu generieren, beide von OpenAI. Vor der öffentlichen Veröffentlichung haben wir monatelang mit beiden Modellen gearbeitet, um einen benutzerdefinierten Satz von Funktionen und Techniken zu entwickeln, um diese hochmoderne KI-Technologie und die Websuche im neuen Bing zu verbinden.  Im November 2023 hat Microsoft das neue Bing in Copilot in Bing umbenannt.

Bei Microsoft nehmen wir unser Engagement für verantwortungsvolle KI ernst. Die Copilot in Bing-Erfahrung wurde in Übereinstimmung mit den KI-Prinzipien von Microsoft, dem Microsoft-Standard für verantwortungsvolle KI und in Zusammenarbeit mit verantwortungsbewussten KI-Experten im gesamten Unternehmen entwickelt, darunter microsoft Office of Responsible AI, unsere Entwicklungsteams, Microsoft Research und Aether. Weitere Informationen zu verantwortungsvoller KI bei Microsoft finden Sie hier.  

In diesem Dokument beschreiben wir unseren Ansatz für verantwortungsvolle KI für Copilot in Bing. Vor der Veröffentlichung haben wir modernste Methoden eingeführt, um potenzielle Risiken und Missbrauch des Systems zu identifizieren, zu messen und zu mindern und seine Vorteile für die Benutzer zu sichern. Da wir Copilot in Bing seit der ersten Veröffentlichung weiter entwickelt haben, haben wir auch unsere Bemühungen um verantwortungsvolle KI weiter gelernt und verbessert. Dieses Dokument wird in regelmäßigen Abständen aktualisiert, um unsere sich entwickelnden Prozesse und Methoden zu kommunizieren.   

Schlüsselbegriffe  

Copilot in Bing ist eine DURCH KI erweiterte Websuche. Da es auf einer leistungsstarken, neuen Technologie ausgeführt wird, definieren wir zunächst einige Schlüsselbegriffe.  

Machine Learning-Modelle, mit denen Daten in bezeichnete Klassen oder Informationskategorien sortiert werden können. In Copilot in Bing verwenden wir Klassifizierer, um potenziell schädliche Inhalte zu erkennen, die von Benutzern übermittelt oder vom System generiert wurden, um die Generierung dieser Inhalte und den Missbrauch oder Missbrauch des Systems zu verhindern. 

Copilot in Bing basiert auf Websuchergebnissen, wenn Benutzer Informationen suchen. Dieser Begriff bringt zum Ausdruck, dass wir bei der Beantwortung von Abfragen oder Prompts einer Person hochrelevante Informationen aus dem Internet nutzen und Links zu Websites mit weiterführenden Informationen bereitstellen. Bing bewertet Webinhalte anhand einer starken Gewichtung von Merkmalen ein wie Relevanz, Qualität und Glaubwürdigkeit sowie Aktualität. Wir beschreiben diese Konzepte ausführlicher unter Wie Bing Search Ergebnisse liefert (siehe "Qualität und Glaubwürdigkeit" in "Wie Bing Search Ergebnisse bewertet").   

Wir betrachten geerdete Antworten als Antworten von Copilot in Bing, in denen Aussagen durch Informationen unterstützt werden, die in Eingabequellen enthalten sind, z. B. Websuchergebnisse aus der Abfrage oder Eingabeaufforderung, Bings Wissensdatenbank von Fakten überprüften Informationen und, für die Chaterfahrung, den aktuellen Konversationsverlauf aus dem Chat. Nicht geerdete Antworten sind Antworten, bei denen eine -Anweisung nicht in diesen Eingabequellen basiert.  

Große Sprachmodelle (Large Language Models, LLMs) sind in diesem Kontext KI-Modelle, die mit großen Mengen von Textdaten trainiert werden, um Wörter in Sequenzen vorherzusagen. LLMs können eine Vielzahl von Aufgaben ausführen, z. B. Textgenerierung, Zusammenfassung, Übersetzung, Klassifizierung und vieles mehr.  

Der Metaprompt ist ein Programm, das dazu dient, das Verhalten des Systems zu steuern. Teile des Metaprompts helfen dabei, das Systemverhalten an den Microsoft KI-Prinzipien und den Erwartungen der Benutzer auszurichten. Der Metaprompt kann z. B. eine Zeile wie "Kommunikation in der Sprache der Wahl des Benutzers" enthalten.  

Eine Methode oder Kombination von Methoden, die entwickelt wurden, um potenzielle Risiken zu reduzieren, die sich aus der Verwendung von KI-gesteuerten Features in Copilot in Bing ergeben können.  

Text, Stimme, Bilder und/oder andere aktivierte Abfragen, die ein Benutzer an Bing sendet, als Eingabe für das Modell, das neue KI-gesteuerte generative Erfahrungen in Bing unterstützt. Beispielsweise kann ein Benutzer die folgende Eingabeaufforderung eingeben:  

"Ich plane eine Reise zu unserem Jubiläum im September. Welche Orte können wir innerhalb eines 3-stündigen Flugs von London Heathrow erreichen?”  

Der Text, den ein Benutzer über die Suchleiste für die Websuche an Bing sendet. In diesem Dokument unterscheiden wir eine Abfrage (für die Websuche) von einer Eingabeaufforderung (für KI-gesteuerte generative Erfahrungen in Bing). Beispielsweise kann ein Benutzer die folgende Abfrage eingeben, um das Web zu durchsuchen:  

"Reiseziele in der Nähe von London Heathrow Flughafen"  

Techniken, die von Experten verwendet werden, um die Einschränkungen und Sicherheitsrisiken eines Systems zu bewerten und die Wirksamkeit geplanter Risikominderungen zu testen. Rote Teamtests und Stresstests werden verwendet, um potenzielle Risiken zu identifizieren und unterscheiden sich von der systematischen Messung von Risiken.   

Der Text, das Bild, die Diagramme usw., die Copilot in Bing als Reaktion auf eine Eingabeaufforderung ausgibt. Synonyme für "Antwort" sind "Abschluss", "Generation" und "Antwort". Bing kann z. B. die folgende Antwort auf die Eingabeaufforderung bereitstellen, die wir oben in der Definition von "prompt" verwendet haben:   

"Herzlichen Glückwunsch zu Deinem Jahrestag! Es gibt viele Orte, die Sie innerhalb eines 3-stündigen Fluges von London Heathrow aus erreichen können. Laut einer Quelle sind einige der Wochenenden, die innerhalb von drei Stunden mit dem Flugzeug von London entfernt sind Bilbao, Kopenhagen, Reykjavik und Stockholm 1, 2. Eine andere Quelle schlägt vor, dass einige der besten Orte in Europa im September Krakau, Florenz und Lissabon 3, 4 sind. Sie können auch die Direktflüge von London Heathrow zu verschiedenen Zielen überprüfen und sehen, was Sie anspricht 5. Ich hoffe, Sie haben eine wunderbare Reise!”  

Beabsichtigte Verwendung und neue KI-Erfahrungen  

Copilot in Bing soll Benutzer mit relevanten Suchergebnissen verbinden, Ergebnisse aus dem gesamten Web überprüfen, um Antworten zu finden und zusammenzufassen, die Benutzer suchen, benutzer dabei zu unterstützen, ihre Recherchen zu verfeinern, um Antworten mit einer Chaterfahrung zu erhalten, und Kreativität fördern, indem Benutzer beim Erstellen von Inhalten unterstützt werden. Copilot in den folgenden generativen KI-Erfahrungen von Bing unterstützt das Ziel, ein KI-gestützter Copilot für das Web zu sein.  

Verdichtung. Wenn Benutzer eine Suchabfrage auf Copilot in Bing übermitteln, verarbeitet das Bing-System die Abfrage, führt eine oder mehrere Websuchen durch und verwendet die wichtigsten Websuchergebnisse, um eine Zusammenfassung der Informationen zu generieren, die benutzern präsentiert werden sollen. Diese Zusammenfassungen enthalten Verweise, mit denen Benutzer die Suchergebnisse, die zum Erstellen der Zusammenfassung verwendet werden, anzeigen und darauf zugreifen können. Zusammenfassungen können auf der rechten Seite der Suchergebnisse und innerhalb der Chaterfahrung angezeigt werden.  

Chaterfahrung. Zusätzlich zur Zusammenfassung können Benutzer mit Copilot im Bing-System per Text-, Bild- oder Spracheingabe chatten, Folgefragen stellen, um Suchvorgänge zu klären und neue Informationen zu finden, und Aufforderungen übermitteln, um kreative Inhalte zu generieren. Verweise sind auch in der Chaterfahrung enthalten, wenn Copilot in Bing Suchergebnisse in der Antwort zusammenfasst.   

Generierung kreativer Inhalte. Sowohl in der Chaterfahrung als auch auf der Suchseite können Benutzer mit Hilfe von Copilot in Bing Gedichte, Witze, Geschichten, Bilder und andere Inhalte erstellen.  Bilder werden von Designer (dem ehemaligen Bing-Image Creator) erstellt, und Benutzer können über Designer Homepage sowie die Copilot-Seite auf das Feature zugreifen. 

Wie funktioniert Copilot in Bing?  

Mit Copilot in Bing haben wir einen innovativen Ansatz entwickelt, um modernste LLMs in die Websuche zu bringen. Wenn ein Benutzer eine Eingabeaufforderung in Copilot in Bing eingibt, werden die Eingabeaufforderung, der verlauf der letzten Unterhaltungen, der Metaprompt und die wichtigsten Suchergebnisse als Eingaben an die LLM gesendet. Das Modell generiert eine Antwort mithilfe der Eingabeaufforderung und des aktuellen Konversationsverlaufs des Benutzers, um die Anforderung zu kontextualisieren, das Metaprompt, um Antworten an microsoft KI-Prinzipien und Benutzererwartungen auszurichten, und die Suchergebnisse, um Antworten in vorhandenen, hochrangigen Inhalten aus dem Web zu erstellen.   

Antworten werden Benutzern in verschiedenen Formaten präsentiert, z. B. herkömmliche Links zu Webinhalten, KI-generierte Zusammenfassungen, Bilder und Chatantworten. Zusammenfassungen und Chatantworten, die auf Websuchergebnissen basieren, enthalten Verweise und einen Abschnitt "Weitere Informationen" unter den Antworten mit Links zu Suchergebnissen, die zum Grounden der Antwort verwendet wurden. Benutzer können auf diese Links klicken, um mehr über ein Thema und die Informationen zu erfahren, die zum Erstellen der Zusammenfassung oder Chatantwort verwendet werden.    

In der Copilot-Benutzeroberfläche können Benutzer Websuchen konversationsaktiv durchführen, indem sie ihrer Eingabeaufforderung Kontext hinzufügen und mit den Systemantworten interagieren, um ihre Suchinteressen weiter anzugeben. Ein Benutzer kann z. B. Folgefragen stellen, zusätzliche klärende Informationen anfordern oder auf das System in konversationsbasierter Weise antworten. In der Chaterfahrung können Benutzer auch eine Antwort aus vorab geschriebenen Vorschlägen auswählen, die wir Als Chatvorschläge bezeichnen. Diese Schaltflächen werden nach jeder Antwort von Copilot angezeigt und geben vorgeschlagene Aufforderungen zum Fortsetzen der Unterhaltung innerhalb der Chaterfahrung an. Chatvorschläge werden auch zusammen mit zusammengefassten Inhalten auf der Suchergebnisseite als Einstiegspunkt für die Chaterfahrung angezeigt.  

Copilot in Bing ermöglicht es einem Benutzer auch, Geschichten, Gedichte, Songtexte und Bilder mit Hilfe von Bing zu erstellen. Wenn Copilot in Bing die Absicht des Benutzers erkennt, kreative Inhalte zu generieren (z. B. beginnt die Eingabeaufforderung mit "schreibe mir einen ..."), generiert das System in den meisten Fällen Inhalte, die auf die Aufforderung des Benutzers reagieren. Wenn Copilot in Bing die Absicht des Benutzers erkennt, ein Bild zu generieren (z. B. beginnt die Eingabeaufforderung mit "Zeichnen Sie mich..."), generiert das System in den meisten Fällen ein Bild, das auf die Aufforderung des Benutzers reagiert. In Visual Search im Chat mit einem Bild, das von der Kamera des Benutzers aufgenommen, vom Gerät des Benutzers hochgeladen oder aus dem Web verknüpft wurde, können Benutzer Copilot in Bing auffordern, den Kontext zu verstehen, zu interpretieren und Fragen zum Bild zu beantworten.  Benutzer können ihre Dateien auch in Copilot hochladen, um Informationen aus ihnen zu interpretieren, zu konvertieren, zu verarbeiten oder zu berechnen. In der Microsoft Designer, auf die Benutzer über Copilot in Bing zugreifen können, können Benutzer nicht nur Bilder mithilfe von Eingabeaufforderungen generieren, sondern auch deren Größe ändern oder neu formatieren oder Änderungen vornehmen, z. B. den verschwommenen Hintergrund oder die Darstellung von Farben. 

Benutzer mit Microsoft-Konten (MSA) haben jetzt auch die Möglichkeit, Copilot Pro zu abonnieren, die eine verbesserte Erfahrung bietet, einschließlich beschleunigter Leistung, schnellerer KI-Imageerstellung und bald die Möglichkeit, Ihre eigenen Copilot-GPTs zu erstellen. Copilot Pro ist derzeit in begrenzten Ländern verfügbar, und wir planen, Copilot Pro in Kürze in weiteren Märkten verfügbar zu machen.

In der Copilot-Benutzeroberfläche können Benutzer auf Copilot-GPTs zugreifen. Eine Copilot GPT, wie Designer GPT, ist eine benutzerdefinierte Version von Microsoft Copilot zu einem Thema, das für Sie von besonderem Interesse ist, z. B. Fitness, Reisen und Kochen, die dabei helfen kann, vage oder allgemeine Ideen in spezifischere Eingabeaufforderungen mit Ausgaben wie Texten und Bildern zu verwandeln. In Copilot können Benutzer verfügbare Copilot-GPTs sehen, und Benutzer mit Copilot Pro Konten haben bald Zugriff auf copilot GPT Builder, ein Feature, mit dem Benutzer eine benutzerdefinierte Copilot GPT erstellen und konfigurieren können. Die oben für Copilot in Bing erwähnten Risikominderungen für verantwortungsvolle KI gelten für Copilot-GPTs.

Weitere Informationen zur Funktionsweise von Copilot Pro- und Copilot-GPTs finden Sie hier.

Copilot in Bing ist bestrebt, vielfältige und umfassende Suchergebnisse mit der Verpflichtung, freien und offenen Zugriff auf Informationen bereitzustellen. Gleichzeitig arbeiten wir mit unseren Bemühungen zur Produktqualität daran, zu verhindern, dass benutzer versehentlich potenziell schädliche Inhalte gefördert werden. Weitere Informationen dazu, wie Bing Inhalte einordnet, einschließlich der Definition der Relevanz sowie der Qualität und Glaubwürdigkeit einer Webseite, finden Sie in den "Richtlinien für Bing-Webmaster".   Weitere Informationen zu den Prinzipien der Inhaltsmoderation von Bing finden Sie unter Wie Bing Suchergebnisse liefert.   

In der Copilot in Windows-Umgebung kann Copilot in Bing mit dem Windows-Betriebssystem zusammenarbeiten, um Windows-spezifische Fähigkeiten bereitzustellen, z. B. das Ändern des Designs oder hintergrunds des Benutzers und das Ändern von Einstellungen wie Audio, Bluetooth und Netzwerk. Diese Benutzeroberflächen ermöglichen es dem Benutzer, seine Einstellungen zu konfigurieren und seine Benutzererfahrung mithilfe von Eingabeaufforderungen in natürlicher Sprache für den LLM zu verbessern. Anwendungsspezifische Funktionen können auch von Anwendungs-Plug-Ins von Drittanbietern bereitgestellt werden. Diese können sich wiederholende Aufgaben automatisieren und eine höhere Benutzereffizienz erzielen. Da LLMs gelegentlich Fehler machen können, werden entsprechende Benutzerbestätigungsaufforderungen bereitgestellt, sodass der Benutzer der letzte Schiedsrichter über änderungen ist, die vorgenommen werden können. 

Identifizieren, Messen und Verringern von Risiken  

Wie andere transformationsorientierte Technologien ist die Nutzung der Vorteile von KI nicht risikofrei, und ein Kernbestandteil des Microsoft-Programms für verantwortungsvolle KI ist darauf ausgelegt, potenzielle Risiken zu identifizieren, deren Neigung zu messen und Abhilfemaßnahmen zu entwickeln, um diese zu beheben. Geleitet von unseren KI-Prinzipien und unserem Standard für verantwortungsvolle KI haben wir versucht, potenzielle Risiken und den Missbrauch von Copilot in Bing zu identifizieren, zu messen und zu mindern und gleichzeitig die transformativen und vorteilhaften Verwendungsmöglichkeiten zu sichern, die die neue Benutzeroberfläche bietet. In den folgenden Abschnitten wird unser iterativer Ansatz zum Identifizieren, Messen und Minimieren potenzieller Risiken beschrieben.   

Auf Modellebene begann unsere Arbeit mit explorativen Analysen von GPT-4 im Spätsommer 2022. Dazu gehörten umfangreiche Red Team-Tests in Zusammenarbeit mit OpenAI. Diese Tests wurden entwickelt, um zu bewerten, wie die neueste Technologie ohne zusätzliche Sicherheitsvorkehrungen funktionieren würde. Unsere spezifische Absicht zu diesem Zeitpunkt war es, schädliche Reaktionen zu erzeugen, potenzielle Wege für Missbrauch zu erschließen und Fähigkeiten und Einschränkungen zu identifizieren. Unsere kombinierten Erkenntnisse in OpenAI und Microsoft trugen zu Fortschritten bei der Modellentwicklung bei und informierten uns bei Microsoft auf unser Verständnis der Risiken und trugen zu frühen Entschärfungsstrategien für Copilot in Bing bei.  

Zusätzlich zu den roten Teamtests auf Modellebene führte ein multidisziplinäres Expertenteam zahlreiche Red-Team-Tests auf Anwendungsebene auf Copilot in Bing AI Erfahrungen durch, bevor es sie in unserer eingeschränkten Vorschauversion öffentlich verfügbar machte. Dieser Prozess half uns, besser zu verstehen, wie das System von angreiferischen Akteuren ausgenutzt werden könnte, und unsere Maßnahmen zu verbessern. Nicht-gegnerische Stresstester haben auch neue Bing-Features umfassend auf Mängel und Sicherheitsrisiken ausgewertet. Nach der Veröffentlichung sind die neuen KI-Umgebungen in Bing in die vorhandene Produktionsmess- und Testinfrastruktur von Bing Engineering organization integriert. Beispielsweise versuchen Red Team-Tester aus verschiedenen Regionen und Hintergründen kontinuierlich und systematisch, das System zu kompromittieren, und ihre Ergebnisse werden verwendet, um die Datasets zu erweitern, die Bing zur Verbesserung des Systems verwendet.  

Rote Teamtests und Stresstests können Instanzen bestimmter Risiken erkennen, aber in der Produktion werden Benutzer Millionen von verschiedenen Arten von Unterhaltungen mit Copilot in Bing führen. Darüber hinaus sind Unterhaltungen mehrteilig und kontextbezogen, und das Identifizieren schädlicher Inhalte innerhalb einer Unterhaltung ist eine komplexe Aufgabe. Um das Risikopotenzial in Copilot in Bing AI Erfahrungen besser zu verstehen und anzugehen, haben wir zusätzliche verantwortungsvolle KI-Metriken speziell für diese neuen KI-Erfahrungen entwickelt, um potenzielle Risiken wie Jailbreaks, schädliche Inhalte und nicht fundierte Inhalte zu messen. Darüber hinaus ermöglichten wir die Messung im großen Stil durch teilweise automatisierte Messpipelines. Jedes Mal, wenn sich das Produkt ändert, vorhandene Risikominderungen aktualisiert oder neue Risikominderungen vorgeschlagen werden, aktualisieren wir unsere Messpipelines, um sowohl die Produktleistung als auch die verantwortlichen KI-Metriken zu bewerten.  

Als illustratives Beispiel enthält die aktualisierte teilweise automatisierte Messpipeline für schädliche Inhalte zwei wichtige Innovationen: Konversationssimulation und automatisierte, von Menschen verifizierte Unterhaltungsanmerkungen. Zunächst haben verantwortliche KI-Experten Vorlagen erstellt, um die Struktur und den Inhalt von Unterhaltungen zu erfassen, die zu verschiedenen Arten schädlicher Inhalte führen können. Diese Vorlagen wurden dann einem Konversations-Agent übergeben, der als hypothetischer Benutzer mit Copilot in Bing interagierte und simulierte Unterhaltungen generierte. Um zu ermitteln, ob diese simulierten Unterhaltungen schädliche Inhalte enthielten, haben wir Richtlinien verwendet, die in der Regel von erfahrenen Linguisten verwendet werden, um Daten zu bezeichnen, und sie für die Verwendung durch GPT-4 geändert, um Unterhaltungen im großen Stil zu bezeichnen, wobei die Richtlinien so lange optimiert wurden, bis eine erhebliche Übereinstimmung zwischen Unterhaltungen mit Modellbezeichnungen und unterhaltungen mit menschenbeschrifteten Bezeichnungen bestand. Schließlich haben wir die mit dem Modell bezeichneten Unterhaltungen verwendet, um eine verantwortungsvolle KI-Metrik zu berechnen, die die Effektivität von Copilot in Bing bei der Minimierung schädlicher Inhalte erfasst.   

Unsere Messpipelines ermöglichen es uns, schnell messungen auf potenzielle Risiken im großen Stil durchzuführen. Da wir neue Probleme im Rahmen des Vorschauzeitraums und laufender Red Team-Tests identifizieren, erweitern wir die Messsätze weiter, um zusätzliche Risiken zu bewerten.  

Da wir potenzielle Risiken und Missbrauch durch Prozesse wie Red Team Testing und Stresstests identifiziert und mit den oben beschriebenen innovativen Ansätzen gemessen haben, entwickelten wir zusätzliche Risikominderungen zu denen, die für die herkömmliche Suche verwendet werden. Im Folgenden werden einige dieser Entschärfungen beschrieben. Wir werden copilot weiterhin in Bing AI Erfahrungen überwachen, um die Produktleistung und Risikominderungen zu verbessern.  

Stufenweise Freigabe, kontinuierliche Auswertung. Wir sind bestrebt, unseren verantwortungsvollen KI-Ansatz kontinuierlich zu lernen und zu verbessern, wenn sich unsere Technologien und unser Benutzerverhalten weiterentwickeln. Unsere Strategie für das inkrementelle Release war ein wesentlicher Bestandteil der Sicheren Verlagerung unserer Technologie aus den Labs in die Welt, und wir setzen uns für einen bewussten, durchdachten Prozess ein, um die Vorteile von Copilot in Bing zu sichern. Durch die Begrenzung der Anzahl von Personen mit Zugriff während des Vorschauzeitraums konnten wir herausfinden, wie Personen Copilot in Bing verwenden, einschließlich der Art und Weise, wie Benutzer es missbrauchen können, damit wir versuchen können, aufkommende Probleme vor einer umfassenderen Veröffentlichung zu beheben. Beispielsweise müssen sich Benutzer mit ihrem Microsoft-Konto authentifizieren, bevor sie auf die vollständige neue Bing-Benutzeroberfläche zugreifen. Nicht authentifizierte Benutzer können nur auf eine eingeschränkte Vorschau der Benutzeroberfläche zugreifen. Diese Schritte entmutigen Missbrauch und helfen uns, (falls erforderlich) geeignete Maßnahmen als Reaktion auf Verstöße gegen verhaltensregeln zu ergreifen.  Wir nehmen täglich Änderungen an Copilot in Bing vor, um die Produktleistung zu verbessern, vorhandene Risikominderungen zu verbessern und als Reaktion auf unsere Erkenntnisse während des Vorschauzeitraums neue Risikominderungen zu implementieren.  

Erdung in Suchergebnissen. Wie bereits erwähnt, ist Copilot in Bing so konzipiert, dass es Antworten bereitstellt, die von den Informationen in Websuchergebnissen unterstützt werden, wenn Benutzer Informationen suchen. Beispielsweise wird dem System Text aus den obersten Suchergebnissen und Anweisungen über den Metaprompt zur Verfügung gestellt, um seine Antwort zu grounden. Bei der Zusammenfassung von Inhalten aus dem Web kann Copilot in Bing jedoch Informationen in die Antwort einschließen, die in den Eingabequellen nicht vorhanden sind. Mit anderen Worten, es kann zu nicht geerdeten Ergebnissen führen. Unsere frühen Bewertungen haben ergeben, dass unerreichte Ergebnisse im Chat für bestimmte Arten von Eingabeaufforderungen oder Themen häufiger auftreten können als andere, z. B. die Nachfrage nach mathematischen Berechnungen, Finanz- oder Marktinformationen (z. B. Unternehmensgewinne, Aktienperformancedaten) und Informationen wie genaue Datumsangaben von Ereignissen oder spezifische Preise von Elementen. Benutzer sollten immer vorsichtig sein und ihr bestes Urteilsvermögen verwenden, wenn sie zusammengefasste Suchergebnisse anzeigen, unabhängig davon, ob auf der Suchergebnisseite oder in der Chatumgebung. Wir haben mehrere Maßnahmen ergriffen, um das Risiko zu verringern, dass Benutzer sich in Zusammenfassungsszenarien und Chaterfahrungen zu stark auf nicht geerdet generierte Inhalte verlassen können. Beispielsweise enthalten Antworten in Copilot in Bing, die auf Suchergebnissen basieren, Verweise auf die Quellwebsites, damit Benutzer die Antwort überprüfen und mehr erfahren können. Benutzern wird auch explizit mitgeteilt, dass sie mit einem KI-System interagieren, und es wird empfohlen, die Webergebnisse zu überprüfen, damit sie ihr bestes Urteilsvermögen verwenden können.  

KI-basierte Klassifizierer und Metaprompting zur Minimierung potenzieller Risiken oder Missbrauch. Die Verwendung von LLMs kann problematische Inhalte erzeugen, die zu Risiken oder Missbrauch führen können. Beispiele hierfür sind Ausgaben im Zusammenhang mit Selbstverletzung, Gewalt, grafischen Inhalten, geistigem Eigentum, ungenauen Informationen, hasserfüllten Äußerungen oder Text, der sich auf illegale Aktivitäten beziehen könnte. Klassifizierer und Metaprompting sind zwei Beispiele für Entschärfungen, die in Copilot in Bing implementiert wurden, um das Risiko dieser Arten von Inhalten zu verringern. Klassifizierer klassifizieren Text, um verschiedene Arten potenziell schädlicher Inhalte in Suchabfragen, Chataufforderungen oder generierten Antworten zu kennzeichnen. Bing verwendet KI-basierte Klassifizierer und Inhaltsfilter, die für alle Suchergebnisse und relevanten Features gelten. wir haben zusätzliche Eingabeaufforderungsklassifizierer und Inhaltsfilter speziell für mögliche Risiken entwickelt, die durch die Copilot in Bing-Features ausgelöst werden. Flags führen zu potenziellen Gegenmaßnahmen, z. B. dass keine generierten Inhalte an den Benutzer zurückgegeben werden, der Benutzer zu einem anderen Thema umgeleitet wird oder der Benutzer zur herkömmlichen Suche umgeleitet wird. Metaprompting umfasst die Bereitstellung von Anweisungen für das Modell, um sein Verhalten zu steuern, einschließlich, damit sich das System in Übereinstimmung mit den KI-Prinzipien von Microsoft und den Erwartungen der Benutzer verhält. Der Metaprompt kann z. B. eine Zeile wie "Kommunikation in der Sprache der Wahl des Benutzers" enthalten.   

Schutz der Privatsphäre in Visual Search in Copilot in Bing. Wenn Benutzer ein Bild als Teil ihrer Chataufforderung hochladen, setzt Copilot in Bing gesichtsverwischende Technologie ein, bevor das Bild an das KI-Modell gesendet wird. Die Gesichtsverwischung wird verwendet, um die Privatsphäre von Personen auf dem Bild zu schützen. Die Technologie zur Gesichtsverwischung basiert auf Kontexthinweisen, um zu bestimmen, wo weich werden soll, und versucht, alle Gesichter zu verwischen. Wenn die Gesichter verschwommen sind, kann das KI-Modell das eingegebene Bild mit dem von öffentlich verfügbaren Bildern im Internet vergleichen. Als Ergebnis kann Copilot in Bing beispielsweise einen berühmten Basketballspieler anhand eines Fotos dieses Spielers auf einem Basketballplatz identifizieren, indem eine numerische Darstellung erstellt wird, die die Trikotnummer, die Trikotfarbe des Spielers, das Vorhandensein eines Basketballkorbs usw. widerspiegelt. Copilot in Bing speichert keine numerischen Darstellungen von Personen aus hochgeladenen Bildern und gibt sie nicht an Dritte weiter. Copilot in Bing verwendet numerische Darstellungen der Bilder, die Benutzer nur hochladen, um auf Die Eingabeaufforderungen der Benutzer zu reagieren. Diese werden dann innerhalb von 30 Tagen nach Ende des Chats gelöscht.    

Wenn der Benutzer Copilot in Bing nach Informationen zu einem hochgeladenen Bild fragt, können Chatantworten die Auswirkungen der Gesichtsverwischung auf die Fähigkeit des Modells, Informationen über das hochgeladene Bild bereitzustellen, widerspiegeln. Copilot in Bing kann beispielsweise beschreiben, dass jemand ein unscharfes Gesicht hat.    

Begrenzen der Konversationsdrift. Während des Vorschauzeitraums haben wir gelernt, dass sehr lange Chatsitzungen zu wiederholten, nicht hilfreichen oder inkonsistenten Antworten mit Copilot im beabsichtigten Ton von Bing führen können. Um diesen Konversationsdrift zu beheben, haben wir die Anzahl der Turns (Austausche, die sowohl eine Benutzerfrage als auch eine Antwort von Copilot in Bing enthalten) pro Chatsitzung beschränkt. Wir prüfen weiterhin weitere Ansätze, um dieses Problem zu beheben.  

Aufforderungsanreicherung. In einigen Fällen kann die Eingabeaufforderung eines Benutzers mehrdeutig sein. In diesem Fall kann Copilot in Bing die LLM verwenden, um weitere Details in der Eingabeaufforderung zu erstellen, um sicherzustellen, dass Benutzer die gesuchte Antwort erhalten. Eine solche Prompt-Anreicherung basiert nicht auf dem Wissen des Benutzers oder seiner vorherigen Suchvorgänge, sondern auf dem KI-Modell. Diese überarbeiteten Abfragen werden im Chatverlauf des Benutzers angezeigt und können wie andere Suchvorgänge mithilfe von Produktsteuerelementen gelöscht werden.  

Benutzerzentrierter Entwurf und Eingriffe in die Benutzerfreundlichkeit. Benutzerzentriertes Design und Benutzeroberflächen sind ein wesentlicher Aspekt des Microsoft-Ansatzes für verantwortungsvolle KI. Ziel ist es, das Produktdesign in den Bedürfnissen und Erwartungen der Benutzer zu verwurzeln. Da Benutzer zum ersten Mal mit Copilot in Bing interagieren, bieten wir verschiedene Berührungspunkte an, die ihnen helfen sollen, die Funktionen des Systems zu verstehen, ihnen mitzuteilen, dass Copilot in Bing von KI unterstützt wird, und um Einschränkungen zu kommunizieren. Die Erfahrung wurde auf diese Weise entwickelt, um Benutzern zu helfen, copilot in Bing optimal zu nutzen und das Risiko einer Überzuverlässigkeit zu minimieren. Elemente der Benutzeroberfläche helfen Benutzern auch, Copilot in Bing und ihre Interaktionen damit besser zu verstehen. Dazu gehören Chatvorschläge speziell für verantwortungsvolle KI (z. B. wie verwendet Bing KI? Warum reagiert Copilot in Bing nicht auf einige Themen?), Erläuterungen zu Einschränkungen, Möglichkeiten, wie Benutzer mehr über die Funktionsweise des Systems erfahren und Feedback melden können, sowie leicht navigierbare Verweise, die in Antworten angezeigt werden, um Benutzern die Ergebnisse und Seiten zu zeigen, auf denen Antworten basieren.  

KI-Offenlegung. Copilot in Bing bietet mehrere Touchpoints für eine aussagekräftige KI-Offenlegung, bei der Benutzer benachrichtigt werden, dass sie mit einem KI-System interagieren, sowie Möglichkeiten, mehr über Copilot in Bing zu erfahren. Die Unterstützung von Benutzern mit diesem Wissen kann ihnen helfen, sich nicht übermäßig auf KI zu verlassen und mehr über die Stärken und Einschränkungen des Systems zu erfahren.  

Medien provenienz.Microsoft Designer hat das Feature "Inhaltsanmeldeinformationen" aktiviert, das kryptografische Methoden verwendet, um die Quelle oder "Herkunft" aller KI-generierten Bilder zu markieren, die auf Designer erstellt wurden. Das unsichtbare digitale Wasserzeichen-Feature zeigt Quelle, Uhrzeit und Datum der ursprünglichen Erstellung an, und diese Informationen können nicht geändert werden. Die Technologie nutzt Standards, die von der Coalition for Content and Authenticity (C2PA) festgelegt wurden, um eine zusätzliche Vertrauens- und Transparenzebene für KI-generierte Bilder zu schaffen. Microsoft ist Mitbegründer von C2PA und hat mit der Kerntechnologie für digitale Inhalte beigetragen. 

Nutzungsbedingungen und Verhaltensregeln. Diese Ressource bestimmt die Verwendung von Copilot in Bing. Die Nutzer sollten sich an die Nutzungsbedingungen und Verhaltensregeln halten, die sie unter anderem über zulässige und unzulässige Nutzungen sowie die Folgen einer Verletzung von Bedingungen informieren. Die Nutzungsbedingungen bieten auch zusätzliche Offenlegungen für Benutzer und dienen als praktische Referenz für Benutzer, um mehr über Copilot in Bing zu erfahren.   

Vorgänge und schnelle Reaktion. Wir verwenden Copilot auch in den laufenden Überwachungs- und Betriebsprozessen von Bing, um darauf zu achten, wann Copilot in Bing Signale empfängt oder einen Bericht empfängt, der auf möglichen Missbrauch oder Verstöße gegen die Nutzungsbedingungen oder verhaltensregeln hinweist.  

Feedback, Überwachung und Aufsicht. Die Copilot in Bing-Erfahrung baut auf vorhandenen Tools auf, mit denen Benutzer Feedback übermitteln und Bedenken melden können, die von den Betriebsteams von Microsoft überprüft werden. Die Betrieblichen Prozesse von Bing wurden ebenfalls erweitert, um die Features von Copilot in Bing zu berücksichtigen, z. B. durch Aktualisierung der Seite "Bedenken melden ", um die neuen Inhaltstypen einzuschließen, die Benutzer mit Hilfe des Modells generieren.   

Unser Ansatz zur Identifizierung, Messung und Minimierung von Risiken wird sich weiter entwickeln, wenn wir mehr erfahren, und wir nehmen bereits Verbesserungen auf der Grundlage von Feedback vor, das während des Vorschauzeitraums gesammelt wurde.     

Automatisierte Inhaltserkennung. Wenn Benutzer Bilder als Teil ihrer Chataufforderung hochladen, stellt Copilot in Bing Tools zur Erkennung von Bildern zur sexuellen Ausbeutung und zum missbrauch von Kindern (CSEAI) bereit, insbesondere photoDNA-Hashabgleichstechnologie. Microsoft hat PhotoDNA entwickelt, um Duplikate bekannter CSEAI zu finden. Microsoft meldet alle offensichtlichen CSEAI an das National Center for Missing and Exploited Children (NCMEC), wie nach US-Recht vorgeschrieben. Wenn Benutzer Dateien hochladen, um sie zu analysieren oder zu verarbeiten, stellt Copilot automatisierte Überprüfungen bereit, um Inhalte zu erkennen, die zu Risiken oder Missbrauch führen können, z. B. Text, der sich auf illegale Aktivitäten oder schädlichen Code beziehen kann.

Schutz der Privatsphäre  

Die langjährige Überzeugung von Microsoft, dass Datenschutz ein grundlegendes Menschenrecht ist, hat jede Phase der Entwicklung und Bereitstellung von Copilot in Bing durch Microsoft geprägt. Unsere Verpflichtungen zum Schutz der Privatsphäre aller Benutzer, einschließlich der Bereitstellung von Transparenz und Kontrolle über ihre Daten und die beabsichtigte Integration des Datenschutzes durch Datenminimierung und Zweckbeschränkung, sind für Copilot in Bing von grundlegender Bedeutung. Während wir unseren Ansatz zur Bereitstellung von Copilot in den generativen KI-Erfahrungen von Bing weiterentwickeln, werden wir kontinuierlich untersuchen, wie wir die Privatsphäre am besten schützen können. Dieses Dokument wird entsprechend aktualisiert. Weitere Informationen dazu, wie Microsoft die Privatsphäre unserer Benutzer schützt, finden Sie in der Microsoft-Datenschutzerklärung.  

In der Copilot in Windows-Erfahrung können Windows-Fähigkeiten im Rahmen ihrer Funktionalität Benutzerinformationen für die Chatunterhaltung freigeben. Dies unterliegt der Genehmigung durch den Benutzer, und Benutzeraufforderungen werden angezeigt, um die Benutzerabsicht zu bestätigen, bevor Benutzerinformationen für die Chatunterhaltung freigegeben werden.

Microsoft berücksichtigt weiterhin die Bedürfnisse von Kindern und Jugendlichen im Rahmen der Risikobewertungen neuer generativer KI-Features in Copilot in Bing. Alle Microsoft-Kinderkonten, die den Benutzer als unter 13 Jahre alt oder gemäß den lokalen Gesetzen angeben, können sich nicht anmelden, um auf die vollständige neue Bing-Benutzeroberfläche zuzugreifen.   

Wie oben beschrieben, haben wir für alle Benutzer Sicherheitsvorkehrungen implementiert, die potenziell schädliche Inhalte entschärfen. In Copilot in Bing werden die Ergebnisse im strict-Modus von Bing SafeSearch festgelegt, der die höchste Sicherheitsstufe in der Standard Bing-Suche aufweist, wodurch verhindert wird, dass Benutzer, einschließlich jugendlicher Benutzer, potenziell schädlichen Inhalten ausgesetzt werden. Zusätzlich zu den Informationen, die wir in diesem Dokument und in unseren häufig gestellten Fragen zu Chatfunktionen bereitgestellt haben, finden Sie hier weitere Informationen darüber, wie Copilot in Bing funktioniert, um zu vermeiden, mit unerwarteten anstößigen Inhalten in Suchergebnissen zu reagieren.  

Microsoft hat sich verpflichtet, keine personalisierte Werbung basierend auf Onlineverhalten an Kinder zu liefern, deren Geburtsdatum in ihrem Microsoft-Konto sie als unter 18 Jahre identifiziert. Dieser wichtige Schutz erstreckt sich auf Anzeigen in Copilot in Bing-Features. Benutzern können kontextbezogene Anzeigen basierend auf der Abfrage oder Eingabeaufforderung angezeigt werden, die für die Interaktion mit Bing verwendet wird.  

Um das transformative Potenzial der generativen KI zu erschließen, müssen wir Vertrauen in die Technologie schaffen, indem wir Einzelpersonen in die Lage versetzen, zu verstehen, wie ihre Daten verwendet werden, und ihnen sinnvolle Auswahlmöglichkeiten und Kontrolle über ihre Daten bieten. Copilot in Bing wurde entwickelt, um menschliches Handeln zu priorisieren, indem Informationen über die Funktionsweise des Produkts sowie seine Einschränkungen bereitgestellt werden und unsere robusten Verbraucheroptionen und -kontrollen auf Copilot in Bing-Features erweitert werden.   

Die Microsoft-Datenschutzerklärung enthält Informationen zu unseren transparenten Datenschutzpraktiken zum Schutz unserer Kunden und enthält Informationen zu den Kontrollen, die unseren Benutzern die Möglichkeit geben, ihre personenbezogenen Daten einzusehen und zu verwalten. Um sicherzustellen, dass Benutzer über die Informationen verfügen, die sie benötigen, wenn sie mit den neuen Konversationsfunktionen von Bing interagieren, informieren produktinterne Offenlegungen die Benutzer darüber, dass sie sich mit einem KI-Produkt beschäftigen, und wir stellen Links zu weiteren häufig gestellten Fragen und Erläuterungen zur Funktionsweise dieser Features bereit. Microsoft wird weiterhin auf Benutzerfeedback hören und gegebenenfalls weitere Details zu den Unterhaltungsfeatures von Bing hinzufügen, um das Verständnis der Funktionsweise des Produkts zu unterstützen.   

Microsoft stellt seinen Benutzern auch robuste Tools zur Verfügung, mit denen sie ihre Rechte an ihren personenbezogenen Daten ausüben können. Für Daten, die von Copilot in Bing gesammelt werden, z. B. durch Benutzerabfragen und -eingabeaufforderungen, stellt das Microsoft Privacy Dashboard authentifizierten (angemeldeten) Benutzern Tools zur Verfügung, um ihre Rechte betroffener Personen auszuüben, einschließlich, indem Benutzern die Möglichkeit gewährt wird, den gespeicherten Konversationsverlauf anzuzeigen, zu exportieren und zu löschen. Microsoft nimmt weiterhin Feedback dazu, wie sie ihre neue Bing-Umgebung verwalten möchten, einschließlich der Verwendung kontextbezogener Datenverwaltungsfunktionen.   

Copilot in Bing berücksichtigt auch Anforderungen unter dem europäischen Recht, vergessen zu werden, und folgt dem Prozess, den Microsoft für die traditionelle Bing-Suchfunktionalität entwickelt und optimiert hat. Alle Nutzer können hier Bedenken in Bezug auf generierte Inhalte und Antworten melden, und unsere europäischen Nutzer können dieses Formular verwenden, um Anfragen zur Sperrung von Suchergebnissen in Europa unter dem Recht auf Vergessen zu stellen.   

Copilot in Bing berücksichtigt die Datenschutzentscheidungen der Benutzer, einschließlich derer, die zuvor in Bing getroffen wurden, z. B. die Zustimmung zur Datenerfassung und -verwendung, die über Cookiebanner und -steuerelemente angefordert wird, die im Microsoft-Datenschutzdashboard verfügbar sind. Um benutzerautonomie und entscheidungsfähig zu machen, haben wir unseren internen Überprüfungsprozess verwendet, um sorgfältig zu prüfen, wie Die Auswahlmöglichkeiten den Benutzern präsentiert werden. 

Zusätzlich zu den Über das Microsoft-Datenschutzdashboard verfügbaren Steuerelementen, mit denen Benutzer ihren Suchverlauf anzeigen, exportieren und löschen können, einschließlich Komponenten ihres Chatverlaufs, authentifizierte Benutzer, die das Feature "Chatverlauf" im Produkt aktiviert haben, über produktinterne Steuerelemente den Chatverlauf anzeigen, darauf zugreifen und herunterladen. Benutzer können bestimmte Chats jederzeit aus dem Chatverlauf löschen oder die Chatverlaufsfunktion vollständig deaktivieren, indem sie die Seite Bing-Einstellungen besuchen. Benutzer können auch auswählen, ob sie die Personalisierung zulassen möchten, um auf eine individuellere Erfahrung mit personalisierten Antworten zuzugreifen. Benutzer können die Personalisierung jederzeit in den Chateinstellungen auf der Seite "Bing-Einstellungen" deaktivieren.  Das Löschen bestimmter Chats aus dem Chatverlauf verhindert, dass sie für die Personalisierung verwendet werden.  
 
Weitere Informationen zum Chatverlauf und zur Personalisierung erhalten die Benutzer in Copilot in Bing – Häufig gestellte Fragen

Copilot in Bing wurde unter Berücksichtigung des Datenschutzes entwickelt, sodass personenbezogene Daten nur bei Bedarf gesammelt und verwendet werden und nicht länger als erforderlich aufbewahrt werden. Wie bereits erwähnt, stellt das Feature "Visual Search in Copilot in Bing" einen Mechanismus bereit, der die Gesichter in den Bildern zum Zeitpunkt des Uploads von Benutzern weicht, sodass Gesichtsbilder nicht weiter verarbeitet oder gespeichert werden. Weitere Informationen zu den personenbezogenen Daten, die Bing sammelt, wie sie verwendet werden und wie sie gespeichert und gelöscht werden, finden Sie in der Microsoft-Datenschutzerklärung, die auch Informationen zu den neuen Chatfunktionen von Bing enthält.   

Copilot in Bing verfügt über Richtlinien zur Datenaufbewahrung und -löschung, um sicherzustellen, dass personenbezogene Daten, die über die Chatfunktionen von Bing gesammelt werden, nur so lange wie erforderlich aufbewahrt werden.   

Wir werden unseren Ansatz bei der Bereitstellung von Copilot in Bing weiter erlernen und weiterentwickeln, und dabei werden wir auch weiterhin disziplinübergreifend arbeiten, um unsere KI-Innovation an menschlichen Werten und Grundrechten auszurichten, einschließlich des Schutzes junger Benutzer und der Privatsphäre.   

Copilot mit kommerziellem Datenschutz 

Copilot mit kommerziellem Datenschutz, früher bekannt als Bing Chat Enterprise ("BCE"), wurde von Microsoft im Juli 2023 in der kostenlosen öffentlichen Vorschau als kostenloses Add-On für bestimmte M365-Kunden veröffentlicht. Copilot mit kommerziellem Datenschutz ist eine KI-erweiterte Websucherfahrung für Endbenutzer in Unternehmen. 

Wie bei Copilot in Bing, wenn ein Copilot mit kommerziellem Datenschutz-Endbenutzer eine Eingabeaufforderung in die Benutzeroberfläche eingibt, werden die Eingabeaufforderung, die sofortige Konversation, die wichtigsten Suchergebnisse und metaprompt als Eingaben an den LLM gesendet. Das Modell generiert eine Antwort mithilfe des Eingabeaufforderungs- und unmittelbaren Konversationsverlaufs, um die Anforderung zu kontextualisieren, den Metaprompt, um Antworten an microsoft KI-Prinzipien und Benutzererwartungen auszurichten, und die Suchergebnisse, um Antworten in vorhandenen, hochrangigen Inhalten aus dem Web zu erstellen. Dies funktioniert auf die gleiche Weise wie Copilot in Bing, wie oben in diesem Dokument beschrieben, mit der Ausnahme, dass Copilot mit kommerziellem Datenschutz nur auf den unmittelbaren Konversationsverlauf (nicht den aktuellen Unterhaltungsverlauf) angewiesen ist, da der gespeicherte Chatverlauf kein derzeit unterstütztes Feature ist. Designer und Visual Search sind jetzt in dieser Version verfügbar. 

Wie andere transformationsorientierte Technologien ist die Nutzung der Vorteile von KI nicht risikofrei, und ein Kernbestandteil des Microsoft-Programms für verantwortungsvolle KI ist darauf ausgelegt, potenzielle Risiken zu identifizieren, deren Neigung zu messen und Abhilfemaßnahmen zu entwickeln, um diese zu beheben. Auch hier gilt die obige Beschreibung der Bemühungen von Microsoft, potenzielle Risiken für Copilot in Bing zu identifizieren, zu messen und zu mindern, auch für diese Version, mit einigen Klarstellungen zu den unten beschriebenen Risikominderungen: 

Stufenweise Freigabe, kontinuierliche Auswertung. Ähnlich wie bei Copilot Bing haben wir auch für Copilot mit kommerziellem Datenschutz einen inkrementellen Releaseansatz verfolgt. Am 18. Juli 2023 wurde Copilot mit kommerziellem Datenschutz als kostenlose Vorschau für berechtigte Unternehmenskunden mit bestimmten M365-Konten verfügbar, die für ihre Unternehmensendbenutzer aktiviert werden können. Dreißig (30) Tage nach der Benachrichtigung berechtigter Unternehmenskunden wurde Copilot mit kommerziellem Datenschutz für dieselben Kunden standardmäßig aktiviert. Copilot mit kommerziellem Datenschutz ist inzwischen auch für bestimmte M365-Konten für Bildungseinrichtungen verfügbar. Copilot mit kommerziellem Datenschutz wurde am 1. Dezember 2023 für bestimmte Unternehmenskunden allgemein verfügbar. In Zukunft planen wir, den Zugang zu Copilot mit kommerziellem Datenschutz auf mehr Microsoft Entra ID Nutzer auszuweiten.

Nutzungsbedingungen und Verhaltensregeln. Endbenutzer von Copilot mit kommerziellem Datenschutz müssen sich an die Nutzungsbedingungen für Endbenutzer halten. Diese Nutzungsbedingungen informieren die Endbenutzer über zulässige und unzulässige Nutzungen sowie über die Folgen einer Verletzung von Bestimmungen.  

Vorgänge und schnelle Reaktion. Wir verwenden Copilot auch in den laufenden Überwachungs- und Betriebsprozessen von Bing, um zu beheben, wenn Copilot mit kommerziellem Datenschutz Signale empfängt oder einen Bericht erhält, der auf möglichen Missbrauch oder Verstöße gegen die Endbenutzer-Nutzungsbedingungen hinweist. 

Feedback, Überwachung und Aufsicht. Copilot mit kommerziellem Datenschutz verwendet die gleichen Tools wie Copilot in Bing, damit Benutzer Feedback übermitteln und Bedenken melden können, die von den Betriebsteams von Microsoft überprüft werden. Copilot in den Betrieblichen Prozessen von Bing wurde ebenfalls erweitert, um die Features in Copilot mit kommerziellen Datenschutzerfahrungen zu unterstützen, z. B. die Aktualisierung der Seite "Bedenken melden", um die neuen Inhaltstypen einzuschließen, die Benutzer mit Hilfe des Modells generieren.  

Um sicherzustellen, dass Endbenutzer über die Informationen verfügen, die sie benötigen, wenn sie mit Copilot mit kommerziellem Datenschutz interagieren, finden Sie am Ende dieses Dokuments eine Produktdokumentation, einschließlich der Seiten häufig gestellte Fragen und Weitere Informationen. 

Aufforderungen und Antworten, die von Endbenutzern in Copilot mit kommerziellem Datenschutz generiert werden, werden in Übereinstimmung mit den Standards für die Verarbeitung von Unternehmensdaten verarbeitet und gespeichert. Das Copilot mit kommerziellem Datenschutzangebot ist derzeit nur für Unternehmenskunden und deren authentifizierte erwachsene Endbenutzer verfügbar. Daher gehen wir derzeit nicht davon aus, dass Kinder oder Jugendliche Endbenutzer von Copilot mit kommerziellem Datenschutz sind. Darüber hinaus bietet Copilot mit kommerziellem Datenschutz keine verhaltensorientierte Werbung für Endbenutzer. Stattdessen handelt es sich bei allen angezeigten Anzeigen nur um kontextrelevante Anzeigen.  

Weitere Informationen:

Dieses Dokument ist Teil einer umfassenderen Bemühungen von Microsoft, unsere KI-Prinzipien in die Praxis umzusetzen. Weitere Informationen finden Sie unter:

Microsofts Ansatz für verantwortungsvolle KI

Microsofts Standard für verantwortungsvolle KI

Ressourcen für verantwortungsvolle KI von Microsoft  

Microsoft Azure Learning-Kurse zu verantwortungsvoller KI  

Informationen zu diesem Dokument  

© 2023 Microsoft. All rights reserved. Dieses Dokument wird "unverändert" und nur zu Informationszwecken bereitgestellt. Informationen und Ansichten, die in diesem Dokument ausgedrückt werden, einschließlich URLs und anderer Verweise auf Internetwebsites, können sich ohne vorherige Ankündigung ändern. Sie tragen das Risiko, es zu verwenden. Einige Beispiele dienen nur zur Veranschaulichung und sind fiktiv. Es wird keine echte Zuordnung beabsichtigt oder abgeleitet.  

Benötigen Sie weitere Hilfe?

Möchten Sie weitere Optionen?

Erkunden Sie die Abonnementvorteile, durchsuchen Sie Trainingskurse, erfahren Sie, wie Sie Ihr Gerät schützen und vieles mehr.

In den Communities können Sie Fragen stellen und beantworten, Feedback geben und von Experten mit umfassendem Wissen hören.

War diese Information hilfreich?

Wie zufrieden sind Sie mit der Sprachqualität?
Was hat Ihre Erfahrung beeinflusst?
Wenn Sie auf "Absenden" klicken, wird Ihr Feedback zur Verbesserung von Produkten und Diensten von Microsoft verwendet. Ihr IT-Administrator kann diese Daten sammeln. Datenschutzbestimmungen.

Vielen Dank für Ihr Feedback!

×