Letzte Aktualisierung: 19. Dezember 2025
Was ist ein Transparenzhinweis?
Ein KI-System umfasst nicht nur die Technologie, sondern auch die Personen, die es verwenden werden, die Personen, die davon betroffen sind, und die Umgebung, in der es bereitgestellt wird. Die Transparenzhinweise von Microsoft sollen Ihnen helfen zu verstehen, wie die KI-Technologie hinter Copilot funktioniert, welche Entscheidungen wir getroffen haben, die die Leistung und das Verhalten des Systems beeinflussen, und wie wichtig es ist, über das gesamte System nachzudenken, damit Copilot-Benutzer die Kontrolle über ihre eigenen Erfahrungen übernehmen und verstehen können, welche Schritte wir unternehmen, um ein sicheres und sicheres Produkt bereitzustellen.
Die Transparenzhinweise von Microsoft sind Teil einer umfassenderen Bemühungen von Microsoft, unsere KI-Prinzipien in die Praxis umzusetzen. Weitere Informationen finden Sie in den Microsoft KI-Prinzipien.
Grundlagen der Microsoft Copilot
Einführung
Copilot ist eine KI-gestützte Erfahrung, die Benutzern dabei hilft, die gesuchten Informationen bereitzustellen, während sie darauf vorbereitet sind, Benutzer bei der Beantwortung einer Vielzahl von Fragen unabhängig von der Situation oder dem Thema zu unterstützen. Der aktualisierte Copilot geht über die Beantwortung grundlegender Informationsabrufabfragen hinaus und konzentriert sich auf das Generieren von Inhalten, um Benutzern proaktiveren Support bei der Ausführung von Aufgaben zu bieten. Wir haben ein wachsendes Verständnis dafür, wie KI Menschen dabei helfen kann, zu lernen, zu entdecken und kreativer zu sein, was uns dazu verpflichtet hat, eine andere Art von Produkt zu entwickeln. Die neue Copilot-Erfahrung soll zu einer neuen Art von Erfahrung werden, die offen und dynamisch ist, um die Benutzeranforderungen auf intuitivere Weise besser zu erfüllen.
Bei Microsoft nehmen wir unser Engagement für verantwortungsvolle KI ernst. Die aktualisierte Copilot-Erfahrung wurde in Übereinstimmung mit den KI-Prinzipien von Microsoft, der verantwortungsbewussten KI-Standard von Microsoft und in Zusammenarbeit mit verantwortungsbewussten KI-Experten im gesamten Unternehmen entwickelt, darunter microsoft Office of Responsible AI, unsere Engineering-Teams, Microsoft Research und Aether. Weitere Informationen zu verantwortungsvoller KI bei Microsoft finden Sie hier.
In diesem Dokument beschreiben wir unseren Ansatz für verantwortungsvolle KI für Copilot. Vor der Veröffentlichung nutzten wir die hochmodernen Methoden von Microsoft, um potenzielle Risiken und Missbrauch des Systems abzubilden, zu messen und zu verwalten und seine Vorteile für Benutzer zu sichern. Da wir Copilot weiterentwickelt haben, haben wir auch unsere Verantwortungsvolle KI-Bemühungen weiter gelernt und verbessert. Dieses Dokument wird in regelmäßigen Abständen aktualisiert, um unsere sich entwickelnden Prozesse und Methoden zu kommunizieren.
Schlüsselbegriffe
Classifiers Machine Learning-Modelle, mit denen Daten in bezeichnete Klassen oder Informationskategorien sortiert werden können. In der aktualisierten Copilot-Erfahrung verwenden wir Klassifizierer, um potenziell schädliche Inhalte zu erkennen, die von Benutzern übermittelt oder vom System generiert wurden, um die Generierung dieser Inhalte und den Missbrauch oder Missbrauch des Systems zu minimieren.
Erdung Für bestimmte Unterhaltungen, in denen Benutzer Informationen suchen, basiert Copilot auf Websuchergebnissen. Dies bedeutet, dass Copilot seine Antwort auf hochwertige Inhalte aus dem Web konzentriert und linksbasierte Zitate nach generierten Textantworten bereitstellt. Beachten Sie, dass Benutzeraufforderungen im Sprachmodus derzeit keine Websuche auslösen, sodass keine Antworten Zitate enthalten.
Große Sprachmodelle (LLMs) Große Sprachmodelle (Large Language Models, LLMs) sind in diesem Kontext KI-Modelle, die mit großen Mengen von Textdaten trainiert werden, um Wörter in Sequenzen vorherzusagen. LLMs können eine Vielzahl von Aufgaben ausführen, z. B. Textgenerierung, Zusammenfassung, Übersetzung, Klassifizierung und vieles mehr.
Schadensbegrenzung Eine Methode oder Eine Kombination von Methoden, die entwickelt wurden, um potenzielle Risiken zu reduzieren, die sich aus der Verwendung der KI-Features in Copilot ergeben können.
Modale Modelle (MMMs) Multi-Modal Models (MMMs) sind KI-Modelle, die mit verschiedenen Datentypen wie Text, Bildern oder Audio trainiert werden. Diese Modelle können eine Vielzahl von Aufgaben ausführen, z. B. das Schreiben von Text, das Beschreiben von Bildern, das Erkennen von Sprache und das Suchen von Informationen über verschiedene Datentypen hinweg.
Prompts Eingaben in Form von Text, Bildern und/oder Audiodaten, die ein Benutzer an Copilot sendet, um mit den KI-Features in Copilot zu interagieren.
Red Teaming Techniken, die von Experten verwendet werden, um die Einschränkungen und Sicherheitsrisiken eines Systems zu bewerten und die Wirksamkeit geplanter Risikominderungen zu testen. Rote Teamtests umfassen Tester, die sowohl gutartige als auch feindselige Personas übernehmen, um potenzielle Risiken zu identifizieren und sich von der systematischen Messung von Risiken zu unterscheiden.
Antworten Text, Bilder oder Audio, die Copilot als Reaktion auf eine Eingabeaufforderung oder als Teil des Hin- und Her-Durchgangs mit dem Benutzer ausgibt. Synonyme für "Response" sind "Completion", "generation" und "answer".
Kleine Sprachmodelle (SLMs) Kleine Sprachmodelle (SLMs) sind in diesem Kontext KI-Modelle, die im Vergleich zu großen Sprachmodellen mit kleineren, fokussierteren Datenmengen trainiert werden. Trotz ihrer geringeren Größe können SLMs eine Vielzahl von Aufgaben ausführen, z. B. Textgenerierung, Zusammenfassung, Übersetzung und Klassifizierung. Obwohl sie möglicherweise nicht mit den umfangreichen Funktionen von LLMs übereinstimmen, sind SLMs häufig ressourceneffizienter und können für bestimmte, gezielte Anwendungen sehr effektiv sein.
Systemnachricht Die Systemnachricht (manchmal auch als "Metaprompt" bezeichnet) ist ein Programm, das dazu dient, das Verhalten des Systems zu steuern. Teile der Systemnachricht helfen dabei, das Systemverhalten an den Microsoft KI-Prinzipien und den Erwartungen der Benutzer auszurichten. Beispielsweise kann eine Systemnachricht eine Zeile wie "Keine Informationen bereitstellen oder Inhalte erstellen, die körperliche, emotionale oder finanzielle Schäden verursachen könnten" enthalten.
Funktionen
Systemverhalten
Mit Copilot haben wir einen innovativen Ansatz entwickelt, um Benutzern eine personalisiertere KI-Erfahrung für eine ansprechende Erfahrung zu bieten, die Benutzern bei einer Vielzahl von Aufgaben helfen kann. Dieser innovative Ansatz nutzt eine Vielzahl fortschrittlicher Technologien, z. B. Sprach- und modale Modelle von Microsoft, OpenAI und anderen Modellentwicklern. Wir haben vor der öffentlichen Veröffentlichung an der Implementierung von Sicherheitstechniken für die Modelle gearbeitet, die der neuen Copilot-Erfahrung zugrunde liegen, um einen angepassten Satz von Funktionen und Verhaltensweisen zu entwickeln, die eine verbesserte Copilot-Erfahrung bieten. Im aktualisierten Copilot können Benutzer Eingabeaufforderungen in natürlicher Sprache oder Spracheingabe senden. Antworten werden Benutzern in verschiedenen Formaten präsentiert, z. B. Chatantworten in Textform (bei Bedarf mit herkömmlichen Links zu Webinhalten) und Bildern (wenn eine Bildanforderung im Rahmen der Eingabeaufforderung erfolgt ist). Wenn Benutzer Eingabeaufforderungen in natürlicher Sprache im Copilot Voice-Modus senden, erhalten sie Audioantworten.
Wenn ein Benutzer eine Eingabeaufforderung in Copilot eingibt, werden die Eingabeaufforderung, der Unterhaltungsverlauf und die Systemnachricht über mehrere Eingabeklassifizierer gesendet, um schädliche oder unangemessene Inhalte herauszufiltern. Dies ist ein wichtiger erster Schritt zur Verbesserung der Modellleistung und zur Entschärfung von Situationen, in denen Benutzer möglicherweise versuchen, das Modell auf unsichere Weise aufzufordern. Sobald die Eingabeaufforderung die Eingabeklassifizierer durchläuft, wird sie an eine SLM gesendet, um zu bestimmen, ob die Anforderung Erdungsdaten aus dem Web erfordert und welches Sprachmodell auf die Anforderung reagieren soll. Alle Modelle generieren eine Antwort mithilfe der Eingabeaufforderung und des aktuellen Konversationsverlaufs des Benutzers, um die Anforderung zu kontextualisieren, die Systemnachricht, um Antworten an den Microsoft KI-Prinzipien und den Erwartungen der Benutzer auszurichten, und richten Sie antworten ggf. an Suchergebnissen aus, um Antworten in vorhandenen, hochrangigen Inhalten aus dem Web zu erstellen.
Antworten werden Benutzern in verschiedenen Formaten präsentiert, z. B. Chatantworten in Textform, herkömmliche Links zu Webinhalten, Bildern und Audioantworten. Wenn Antworten in Form von Text bereitgestellt werden – und die Antworten auf Daten aus dem Web basieren –, enthält die Ausgabe links enthaltene Zitate, die unterhalb des Texts aufgeführt sind, damit Benutzer auf die Website(en) zugreifen können, die verwendet wurden, um die Antwort zu grounden, und von dort aus mehr über das Thema erfahren können. Copilot kann auch Code ausführen, um komplexe Berechnungen durchzuführen und Diagramme zu generieren. Copilot kann bestimmte Fakten speichern, die Benutzer sich merken möchten, sodass es relevantere Antworten und Vorschläge basierend auf diesem Kontext generieren kann. Copilot kann auch gespeicherte Fakten löschen, wenn Benutzer sie explizit vergessen möchten.
Copilot hilft Benutzern auch, neue Geschichten, Gedichte, Songtexte und Bilder zu erstellen. Wenn Copilot die Absicht des Benutzers erkennt, kreative Inhalte zu generieren (z. B. eine Benutzeraufforderung, die mit "schreibe mir einen ..." beginnt), generiert das System in den meisten Fällen Inhalte, die auf die Aufforderung des Benutzers reagieren. Wenn Copilot die Absicht des Benutzers erkennt, ein Bild zu generieren (z. B. eine Benutzeraufforderung, die mit "Zeichnen Sie mich ein ..." beginnt), generiert Copilot in den meisten Fällen ein Bild, das auf die Eingabeaufforderung des Benutzers reagiert. Wenn Copilot die Absicht des Benutzers erkennt, ein hochgeladenes Bild zu ändern (z. B. eine Benutzeraufforderung, die mit "add a ..." beginnt), ändert Copilot in den meisten Fällen ein Bild, das auf die Eingabeaufforderung des Benutzers reagiert. Copilot reagiert möglicherweise nicht mit kreativen Inhalten, wenn die Benutzeraufforderung bestimmte Begriffe enthält, die zu problematischen Inhalten führen können.
Benutzer mit Microsoft-Konten (MSA) haben jetzt auch die Möglichkeit, Copilot Pro zu abonnieren, die eine erweiterte Erfahrung bietet, einschließlich einer beschleunigten Leistung, der Nutzung von Copilot Voice-Funktionen für längere Zeiträume und in einigen Fällen zugriff auf neue experimentelle Features. Copilot Pro ist derzeit in einer begrenzten Anzahl von Ländern verfügbar, und wir planen, Copilot Pro in Kürze in weiteren Märkten verfügbar zu machen.
Beabsichtigtes Sicherheitsverhalten
Unser Ziel für Copilot ist es, den Benutzern hilfreich zu sein. Durch die Nutzung bewährter Methoden anderer produkte und dienste von Microsoft generative KI wollen wir copilot daran hindern, problematische Inhalte zu generieren und die Wahrscheinlichkeit einer sicheren und positiven Benutzererfahrung zu erhöhen. Obwohl wir Schritte unternommen haben, um Risiken zu mindern, sind generative KI-Modelle wie die hinter Copilot probabilistisch und können Fehler machen, was bedeutet, dass Entschärfungen gelegentlich keine schädlichen Benutzeraufforderungen oder KI-generierten Antworten blockieren. Wenn Sie bei der Verwendung von Copilot auf schädliche oder unerwartete Inhalte stoßen, teilen Sie uns dies mit, indem Sie Uns Feedback geben, damit wir die Erfahrung weiter verbessern können.
Anwendungsfälle
Beabsichtigte Verwendung
Copilot soll Benutzer bei der Beantwortung einer Vielzahl von Fragen unterstützen, unabhängig von der Situation oder dem Thema. Benutzer können mit Copilot über Text-, Bild- und Audioeingaben interagieren, bei denen Interaktionen eher wie natürliche Unterhaltungen mit einem KI-System aussehen sollen. Wenn Benutzer mit Copilot über Text interagieren, um spezifische Informationen zu Themen zu erhalten, bei denen Copilot möglicherweise mehr Informationen benötigt, um eine genauere Antwort zu erhalten, soll die Erfahrung benutzer mit relevanten Suchergebnissen verbinden, Ergebnisse aus dem gesamten Web überprüfen und Informationen zusammenfassen, die benutzer suchen. In Copilot haben Benutzer folgende Möglichkeiten:
-
Zusammenfassen von Echtzeitinformationen beim Chatten per Text. Wenn Benutzer mit Copilot über Text interagieren, führt das System Websuchen durch, wenn es weitere Informationen benötigt, und verwendet die wichtigsten Websuchergebnisse, um eine Zusammenfassung der Informationen zu generieren, die benutzern präsentiert werden sollen. Diese Zusammenfassungen enthalten Zitate auf Webseiten, damit Benutzer die Quellen für Suchergebnisse, die dazu beigetragen haben, die Zusammenfassung von Copilot zu erstellen, anzeigen und einfach darauf zugreifen können. Benutzer können auf diese Links klicken, um direkt zur Quelle zu gelangen, wenn sie mehr erfahren möchten.
-
Chatten Sie mit einem KI-System mithilfe von Text. Benutzer können per SMS mit Copilot chatten und Folgefragen stellen, um neue Informationen zu finden und Unterstützung für eine Vielzahl von Themen zu erhalten.
-
Schnittstelle mit KI mithilfe von Sprache und Aussehen. Copilot kann nicht nur Audioeingaben empfangen, sondern auch Audioausgabe in einer von vier von Benutzern ausgewählten Stimmen erzeugen und ein visuelles Erscheinungsbild präsentieren, um die Interaktion zu bereichern. Audio-to-Audio- und Darstellungsfunktionen ermöglichen es Benutzern, auf natürlichere und flüssigere Weise mit Copilot zu interagieren.
-
Empfangen von verdaulichen Nachrichteninhalten. Benutzer können Copilot verwenden, um eine Zusammenfassung von Nachrichten, Wetter und anderen Updates basierend auf ausgewählten Themenbereichen über das Copilot Daily-Feature zu erhalten und diese Briefings in einem Podcast-ähnlichen Format anzuhören. Dieses Feature ruft Inhalte aus autorisierten Quellen ab, die über Vereinbarungen mit Microsoft verfügen.
-
Erhalten Sie Hilfe bei der Generierung neuer Ideen. Jedes Mal, wenn Benutzer mit der Copilot-Erfahrung interagieren, sehen sie eine Reihe von Karten, auf die sie klicken können, um mit Copilot über nützliche und interessante Themen zu chatten. Wenn Benutzer mit anderen Microsoft-Verbraucherdiensten interagiert haben, werden die Karten gemäß unseren Datenschutzrichtlinien personalisiert. Im Laufe der Zeit können Karten in Copilot basierend auf dem Chatverlauf eines Benutzers personalisiert werden. Benutzer können die Personalisierung jederzeit in den Einstellungen deaktivieren.
-
Generieren sie kreative Inhalte. Wenn Sie mit Copilot chatten, können Benutzer mit Hilfe der Copilot-Erfahrung neue Gedichte, Witze, Geschichten, Bilder und andere Inhalte erstellen. Copilot kann auch Bilder bearbeiten, die von Benutzern hochgeladen wurden, wenn dies gewünscht wird.
-
Ausführen von Aufgaben unter Android.Benutzer können mit Copilot über die Android-Plattform per Sprache interagieren, um bestimmte Aufgaben auszuführen. Diese Aufgaben sind das Festlegen von Timern und Alarmen, das Tätigen von Telefonanrufen, das Senden von SMS-Nachrichten und das Bestellen eines Uber. Benutzer müssen den Telefonanruf, die SMS-Nachricht und die Uber-Bestellung bestätigen, bevor die Aufgaben abgeschlossen sind.
-
Helfen Sie bei der Forschung. Copilot kann Forschungsaufgaben ausführen, indem detaillierte Ressourcen angezeigt werden, detaillierte Aufschlüsselungen von Themen angeboten und Quellen verknüpft werden, um Benutzern zu helfen, über schnelle Antworten für komplexere Abfragen hinauszugehen. Copilot generiert möglicherweise proaktiv personalisierte Recherchevorschläge für Benutzer, die auf Dingen wie früheren Forschungsabfragen und Copilot-Speicher basieren. Benutzer können die Personalisierung oder Benachrichtigungen jederzeit in den Einstellungen deaktivieren.
-
Erkunden Sie die Welt mit Copilot Vision. Copilot kann Ihren Bildschirm- oder Kamerafeed anzeigen und seine Stimme verwenden, um Fragen zu beantworten und mit Ihnen zu interagieren. Copilot kann sofort in Echtzeit Einblicke und Vorschläge scannen, analysieren und anbieten, um Sie bei der Arbeit, beim Surfen oder beim Erkunden der Welt zu unterstützen. Copilot Vision ist für Edge, Windows, iOS und Android verfügbar.
-
Abrufen von Informationen mit Connectors.Mit Ihrer Zustimmung kann Copilot Ihre Clouddateien in natürlicher Sprache durchsuchen und mit ihnen interagieren. Copilot kann E-Mails abrufen, Kontakte suchen und Kalendertermine aus Microsoft Outlook- und Google Gmail-Konten überprüfen.
-
Zusammenarbeiten mit Copilot-Gruppen. Auf Einladung können Sie an Gruppenunterhaltungen mit Copilot teilnehmen oder diese erstellen, um an gemeinsamen Projekten und Ideen zusammenzuarbeiten.
Überlegungen bei der Auswahl anderer Anwendungsfälle
Wir empfehlen Benutzern, alle Inhalte zu überprüfen, bevor sie Entscheidungen treffen oder basierend auf den Antworten von Copilot handeln, da KI Fehler machen kann. Darüber hinaus gibt es bestimmte Szenarien, die wir vermeiden sollten oder die gegen unsere Nutzungsbedingungen gehen. Microsoft lässt beispielsweise nicht zu, dass Copilot im Zusammenhang mit illegalen Aktivitäten oder für zwecke der Förderung illegaler Aktivitäten verwendet wird.
Beschränkungen
Die Sprach-, Bild- und Audiomodelle, die zu den Copilot-Erfahrungen gehören, können Trainingsdaten enthalten, die gesellschaftliche Verzerrungen widerspiegeln können, was wiederum dazu führen kann, dass Copilot sich in einer Weise verhält, die als unfair, unzuverlässig oder anstößig wahrgenommen wird. Trotz unserer intensiven Modelltrainings und Sicherheitsoptimierung sowie der Implementierung der verantwortungsvollen KI-Steuerungen und Sicherheitssysteme, die wir in Trainingsdaten, Benutzeraufforderungen und Modellausgaben platzieren, sind KI-gesteuerte Dienste fallible und probabilistisch. Dies macht es schwierig, alle unangemessenen Inhalte umfassend zu blockieren, was zu Risiken führt, die potenzielle Voreingenommenheit, Stereotype, Unerschädigkeit oder andere Arten von Schäden verursachen können, die in KI-generierten Inhalten auftreten könnten. Einige der Möglichkeiten, wie sich diese Einschränkungen in der Copilot-Erfahrung manifestieren können, sind hier aufgeführt.
-
Stereotypisierung: Die Copilot-Erfahrung könnte möglicherweise Stereotype verstärken. Wenn Copilot beispielsweise "Er ist eine Krankenschwester" und "Sie ist ein Arzt" in eine geschlechtslose Sprache wie Türkisch und dann zurück ins Englische übersetzt, könnte Copilot versehentlich die stereotypen (und falschen) Ergebnisse von "Sie ist eine Krankenschwester" und "Er ist ein Arzt" liefern. Ein weiteres Beispiel ist, wenn ein Bild basierend auf der Aufforderung "Vaterlose Kinder" generiert wird, könnte das System Bilder von Kindern aus nur einer Rasse oder ethnischen Zugehörigkeit generieren, wodurch schädliche Stereotype verstärkt werden, die in öffentlich verfügbaren Bildern vorhanden sein könnten, die zum Trainieren der zugrunde liegenden Modelle verwendet werden. Copilot kann auch Stereotypen verstärken, die auf den Inhalten im Eingabebild des Benutzers basieren, indem er sich auf Komponenten des Bilds verlässt und Annahmen trifft, die möglicherweise nicht wahr sind. Wir haben Entschärfungen implementiert, um das Risiko von Inhalten zu verringern, die anstößige Stereotype enthalten, einschließlich Eingabe- und Ausgabeklassifizierer, fein abgestimmte Modelle und Systemmeldungen.
-
Über- und Unterrepräsentierung: Copilot könnte Personengruppen in seinen Antworten möglicherweise über- oder unterrepräsentieren oder gar nicht vertreten. Wenn beispielsweise Textaufforderungen, die das Wort "gay" enthalten, als potenziell schädlich oder anstößig erkannt werden, könnte dies zur Unterrepräsentation legitimer Generationen über die LGBTQIA+-Community führen. Zusätzlich zum Einschließen von Eingabe- und Ausgabeklassifizierern, optimierten Modellen sowie Systemmeldungen verwenden wir prompte Anreicherung in Designer als eine von mehreren Gegenmaßnahmen, um das Risiko von Inhalten zu verringern, die Personengruppen über- oder unterrepräsentieren.
-
Unangemessene oder anstößige Inhalte: Die Copilot-Erfahrung kann potenziell andere Arten von unangemessenen oder anstößigen Inhalten erzeugen. Beispiele hierfür sind die Möglichkeit, Inhalte in einer Modalität (z. B. Audio) zu generieren, die im Kontext der Eingabeaufforderung oder im Vergleich zur gleichen Ausgabe in einer anderen Modalität (z. B. Text) unangemessen ist. Weitere Beispiele sind KI-generierte Bilder, die potenziell schädliche Artefakte wie Hasssymbole, Inhalte enthalten, die sich auf umstrittene, kontroverse oder ideologisch polarisierende Themen beziehen, und sexuell aufgeladene Inhalte, die sexuelle Inhaltsfilter umgehen. Wir haben Entschärfungen eingerichtet, um das Risiko von Generationen zu verringern, die unangemessene oder anstößige Inhalte enthalten, z. B. Eingabe- und Ausgabeklassifizierer, fein abgestimmte Modelle und Systemmeldungen.
-
Informationszuverlässigkeit: Während Copilot darauf abzielt, bei Bedarf mit zuverlässigen Quellen zu reagieren, kann KI Fehler machen. Es könnte potenziell unsinnige Inhalte generieren oder Inhalte erstellen, die vernünftig klingen, aber sachlich ungenau sind. Selbst beim Zeichnen von Antworten aus Webdaten mit hoher Autorität können Antworten diesen Inhalt auf eine Weise falsch darstellen, die möglicherweise nicht vollständig genau oder zuverlässig ist. Wir erinnern Benutzer über die Benutzeroberfläche und in der Dokumentation wie diese daran, dass Copilot Fehler machen kann. Wir schulen die Benutzer auch weiterhin über die Einschränkungen von KI, z. B. ermutigen sie, Fakten zu überprüfen, bevor wir Entscheidungen treffen oder basierend auf den Antworten von Copilot handeln. Wenn Benutzer mit Copilot über Text interagieren, versucht es, sich in hochwertigen Webdaten zu erden, um das Risiko zu verringern, dass Generationen nicht geerdet werden.
-
Mehrsprachige Leistung: Es kann zu Abweichungen bei der Leistung zwischen den Sprachen kommen, wobei Englisch zum Zeitpunkt der Veröffentlichung des aktualisierten Copilot am besten abschneidet. Die Verbesserung der Leistung in allen Sprachen ist ein wichtiger Investitionsbereich, und die neuesten Modelle haben zu einer verbesserten Leistung geführt.
-
Audiobeschränkungen: Audiomodelle können weitere Einschränkungen mit sich bringen. Im Großen und Ganzen können sich die akustische Qualität der Spracheingabe, nicht sprachbezogener Rauschen, Vokabular, Akzente und Einfügefehler auch darauf auswirken, ob Copilot die Audioeingaben eines Benutzers zufriedenstellend verarbeitet und darauf reagiert. Da Benutzeraufforderungen bei der Verwendung von Copilot Voice keine Websuchen auslösen, kann Copilot im Sprachmodus möglicherweise nicht auf aktuelle Ereignisse reagieren.
-
Abhängigkeit von internetkonnektivität: Die aktualisierte Copilot-Erfahrung basiert auf der Internetverbindung, um zu funktionieren. Konnektivitätsunterbrechungen können sich auf die Verfügbarkeit und Leistung des Diensts auswirken.
Systemleistung
In vielen KI-Systemen wird die Leistung häufig in Bezug auf die Genauigkeit definiert (d. h., wie oft das KI-System eine richtige Vorhersage oder Ausgabe bietet). Bei Copilot konzentrieren wir uns auf Copilot als KI-gestützte Assistent, die die Präferenzen des Benutzers widerspiegelt. Daher können zwei unterschiedliche Benutzer die gleiche Ausgabe betrachten und unterschiedliche Meinungen darüber haben, wie nützlich oder relevant es für ihre einzigartige Situation und Ihre Erwartungen ist, was bedeutet, dass die Leistung für diese Systeme flexibler definiert werden muss. Wir betrachten leistung im Allgemeinen so, dass die Anwendung die von den Benutzern erwartete Leistung bietet.
Bewährte Methoden zur Verbesserung der Systemleistung
Interagieren Sie mit der Schnittstelle mithilfe einer natürlichen Konversationssprache. Die Interaktion mit Copilot auf eine weise, die für den Benutzer angenehm ist, ist der Schlüssel zu besseren Ergebnissen durch die Erfahrung. Ähnlich wie die Einführung von Techniken, mit denen Menschen in ihrem täglichen Leben effektiv kommunizieren können, kann die Interaktion mit Copilot als KI-gestützter Assistent entweder durch Text oder Sprache, die dem Benutzer vertraut ist, dazu beitragen, bessere Ergebnisse zu erzielen.
Benutzererfahrung und Einführung. Die effektive Verwendung von Copilot erfordert, dass Benutzer die Funktionen und Einschränkungen verstehen. Möglicherweise gibt es eine Lernkurve, und Benutzer möchten möglicherweise auf verschiedene Copilot-Ressourcen (z. B. dieses Dokument und unsere häufig gestellten Fragen zu Copilot) verweisen, um effektiv mit dem Dienst zu interagieren und davon zu profitieren.
Zuordnen, Messen und Verwalten von Risiken
Wie andere transformationsorientierte Technologien ist die Nutzung der Vorteile von KI nicht risikofrei, und ein Kernbestandteil des Microsoft-Programms für verantwortungsvolle KI ist darauf ausgelegt, potenzielle Risiken zu identifizieren und abzubilden, diese Risiken zu messen und zu verwalten, indem Entschärfungen erstellt und Copilot im Laufe der Zeit kontinuierlich verbessert wird. In den folgenden Abschnitten wird unser iterativer Ansatz zum Zuordnen, Messen und Verwalten potenzieller Risiken beschrieben.
Karte: Sorgfältige Planung und tests vor der Bereitstellung von Angreifern, z. B. red teaming, helfen uns dabei, potenzielle Risiken zuzuordnen. Die zugrunde liegenden Modelle, die die Copilot-Erfahrung unterstützen, wurden von Testern getestet, die multidisziplinäre Perspektiven in relevanten Themenbereichen darstellen. Diese Tests wurden entwickelt, um zu bewerten, wie die neueste Technologie sowohl mit als auch ohne zusätzliche Sicherheitsvorkehrungen funktionieren würde. Die Absicht dieser Übungen auf Modellebene besteht darin, schädliche Reaktionen zu erzeugen, potenzielle Möglichkeiten für Missbrauch zu erschließen und Funktionen und Einschränkungen zu identifizieren.
Bevor wir die Copilot-Erfahrung in einer eingeschränkten Vorschauversion öffentlich verfügbar gemacht haben, haben wir auch red teaming auf Anwendungsebene durchgeführt, um Copilot auf Mängel und Sicherheitsrisiken zu bewerten. Dieser Prozess half uns, besser zu verstehen, wie das System von einer Vielzahl von Benutzern genutzt werden konnte, und half uns, unsere Risikominderungen zu verbessern.
Maßnahme: Zusätzlich zur Bewertung von Copilot anhand unserer vorhandenen Sicherheitsbewertungen hat uns die oben beschriebene Verwendung von Red Teaming geholfen, Auswertungen und verantwortungsvolle KI-Metriken zu entwickeln, die identifizierten potenziellen Risiken entsprechen, z. B. Jailbreaks, schädliche Inhalte und unergründete Inhalte.
Wir haben Konversationsdaten gesammelt, die auf diese Risiken abzielen, indem wir eine Kombination aus menschlichen Teilnehmern und einer automatisierten Konversationsgenerierungspipeline verwenden. Jede Auswertung wird dann entweder durch einen Pool von trainierten menschlichen Annotatoren oder eine automatisierte Anmerkungspipeline bewertet. Jedes Mal, wenn sich das Produkt ändert, vorhandene Risikominderungen aktualisiert oder neue Risikominderungen vorgeschlagen werden, aktualisieren wir unsere Evaluierungspipelines, um sowohl die Produktleistung als auch die verantwortlichen KI-Metriken zu bewerten. Diese automatisierten Auswertungskontextpipelines sind eine Kombination aus gesammelten Unterhaltungen mit menschlichen Evaluatoren und synthetischen Unterhaltungen, die mit LLMs generiert werden, die aufgefordert werden, Richtlinien auf eine feindselige Weise zu testen. Jede dieser Sicherheitsbewertungen wird automatisch mit LLMs bewertet. Für die neu entwickelten Auswertungen wird jede Auswertung zunächst von menschlichen Labelern bewertet, die den Textinhalt lesen oder die Audioausgabe hören, und dann in automatische LLM-basierte Auswertungen konvertiert.
Das beabsichtigte Verhalten unserer Modelle in Kombination mit unseren Auswertungspipelines – sowohl menschlichen als auch automatisierten – ermöglicht es uns, schnell messungen für potenzielle Risiken im großen Stil durchzuführen. Da wir im Laufe der Zeit neue Probleme identifizieren, erweitern wir die Messsätze weiter, um zusätzliche Risiken zu bewerten.
Verwalten: Da wir potenzielle Risiken und Missbrauch durch red teaming identifiziert und mit den oben beschriebenen Ansätzen gemessen haben, haben wir zusätzliche Risikominderungen entwickelt, die für die Copilot-Erfahrung spezifisch sind. Im Folgenden werden einige dieser Risikominderungen beschrieben. Wir werden die Copilot-Erfahrung weiterhin überwachen, um die Produktleistung und unseren Ansatz zur Risikominderung zu verbessern.
-
Stufenweise Releasepläne und kontinuierliche Evaluierung. Wir sind bestrebt, unseren verantwortungsvollen KI-Ansatz kontinuierlich zu erlernen und zu verbessern, während sich unsere Technologien und unser Benutzerverhalten weiterentwickeln. Unsere Strategie für das inkrementelle Release war ein wesentlicher Bestandteil der Sicheren Verlagerung unserer Technologie aus dem Labor in die Welt, und wir setzen uns für einen bewussten, durchdachten Prozess ein, um die Vorteile der Copilot-Erfahrung zu sichern. Wir nehmen regelmäßig Änderungen an Copilot vor, um die Produktleistung und bestehende Risikominderungen zu verbessern, und implementieren neue Risikominderungen als Reaktion auf unsere Erkenntnisse.
-
Nutzung von Klassifizierern und der Systemmeldung, um potenzielle Risiken oder Missbrauch zu minimieren. Als Reaktion auf Benutzeraufforderungen können LLMs problematische Inhalte erzeugen. In den abschnitten Systemverhalten und Einschränkungen wurden Inhaltstypen erläutert, die wir einschränken möchten. Klassifizierer und die Systemmeldung sind zwei Beispiele für Risikominderungen, die in Copilot implementiert wurden, um das Risiko dieser Arten von Inhalten zu verringern. Klassifizierer klassifizieren Text, um potenziell schädliche Inhalte in Benutzeraufforderungen oder generierten Antworten zu kennzeichnen. Wir verwenden auch vorhandene bewährte Methoden für die Nutzung der Systemnachricht, was beinhaltet, dass dem Modell Anweisungen gegeben werden, um sein Verhalten an den KI-Prinzipien von Microsoft und den Erwartungen der Benutzer auszurichten.
-
Zustimmung zu Copilot-Bilduploads. Wenn ein Benutzer zum ersten Mal ein Bild mit Gesichtern in Copilot hochlädt, wird er aufgefordert, seine Zustimmung zum Hochladen seiner biometrischen Daten in Copilot zu erteilen. Wenn sich ein Benutzer nicht anmeldet, wird das Bild nicht an Copilot gesendet. Alle Bilder, unabhängig davon, ob sie Gesichter enthalten oder nicht, werden innerhalb von 30 Tagen nach Ende der Unterhaltung gelöscht.
-
KI-Offenlegung. Copilot ist auch darauf ausgelegt, Personen darüber zu informieren, dass sie mit einem KI-System interagieren. Wenn Benutzer mit Copilot interagieren, bieten wir verschiedene Touchpoints an, die ihnen helfen sollen, die Funktionen des Systems zu verstehen, ihnen mitzuteilen, dass Copilot von KI unterstützt wird, und um Einschränkungen zu kommunizieren. Die Erfahrung wurde auf diese Weise entwickelt, um Benutzern zu helfen, das Beste aus Copilot herauszuholen und das Risiko von Überzuverlässigkeit zu minimieren. Offenlegungen helfen Benutzern auch, Copilot und ihre Interaktionen damit besser zu verstehen.
-
Medien provenienz. Wenn Copilot ein Bild generiert, haben wir das Feature "Inhaltsanmeldeinformationen" aktiviert, das kryptografische Methoden verwendet, um die Quelle oder "Herkunft" aller mit Copilot erstellten KI-generierten Bilder zu markieren. Diese Technologie nutzt Standards der Coalition for Content and Authenticity (C2PA), um eine zusätzliche Vertrauens- und Transparenzebene für KI-generierte Bilder zu schaffen.
-
Automatisierte Inhaltserkennung. Wenn Benutzer Bilder als Teil ihrer Chataufforderung hochladen, stellt Copilot Tools zur Erkennung von Bildern zur sexuellen Ausbeutung und zum Missbrauch von Kindern (CSEAI) bereit. Microsoft meldet alle offensichtlichen CSEAI an das National Center for Missing and Exploited Children (NCMEC), wie nach US-Recht vorgeschrieben. Wenn Benutzer Dateien hochladen, um sie zu analysieren oder zu verarbeiten, stellt Copilot automatisierte Überprüfungen bereit, um Inhalte zu erkennen, die zu Risiken oder Missbrauch führen können, z. B. Text, der sich auf illegale Aktivitäten oder schädlichen Code beziehen kann.
-
Nutzungsbedingungen und Verhaltensregeln. Benutzer sollten sich an die geltenden Nutzungsbedingungen und Verhaltensregeln von Copilot halten, sowie die Microsoft-Datenschutzerklärung, die sie unter anderem über zulässige und unzulässige Nutzungen und die Folgen eines Verstoßes gegen die Bedingungen informieren. Die Nutzungsbedingungen bieten auch zusätzliche Offenlegungen für Benutzer und dienen als Referenz für Benutzer, um mehr über Copilot zu erfahren. Benutzer, die schwerwiegende oder wiederholte Verstöße begehen, können vorübergehend oder dauerhaft vom Dienst gesperrt werden.
-
Feedback, Überwachung und Aufsicht. Die Copilot-Erfahrung baut auf vorhandenen Tools auf, mit denen Benutzer Feedback übermitteln können, das von den Betriebsteams von Microsoft überprüft wird. Darüber hinaus wird sich unser Ansatz für die Zuordnung, Messung und Verwaltung von Risiken weiter entwickeln, wenn wir mehr erfahren, und wir nehmen bereits Verbesserungen auf der Grundlage von Feedback vor, das während der Vorschauphase gesammelt wurde.
-
Erkennen und Reagieren auf Selbstmord und Self-Harm Risiken. Copilot verwendet Machine Learning-Klassifizierer, die trainiert wurden, um Sprachmuster zu erkennen, die auf Selbstmord oder selbstverschädigte Absicht des Benutzers hindeuten können. Wenn solche Inhalte erkannt werden, entbindet sich das System von der Unterhaltung und stellt stattdessen eine Hilfslinie Karte mit Krisenunterstützungsressourcen (z. B. die Selbstmord- und Krisen-Lifeline bei 988 im USA) bereit, um die Benutzer zu ermutigen, professionelle Hilfe zu suchen. Copilot bietet keine Beratung; seine Rolle ist auf die Erkennung und Weiterleitung beschränkt, um die Sicherheit der Benutzer zu gewährleisten.
Weitere Informationen zu verantwortungsvoller KI
Microsoft Responsible AI Transparency Report
Weitere Informationen zu Microsoft Copilot
Informationen zu diesem Dokument
© 2024 Microsoft Corporation. Alle Rechte vorbehalten. Dieses Dokument wird "unverändert" und nur zu Informationszwecken bereitgestellt. Informationen und Ansichten, die in diesem Dokument ausgedrückt werden, einschließlich URLs und anderer Verweise auf Internetwebsites, können sich ohne vorherige Ankündigung ändern. Sie tragen das mit der Nutzung verbundene Risiko. Einige Beispiele dienen nur zur Veranschaulichung und sind fiktiv. Es wird keine echte Zuordnung beabsichtigt oder abgeleitet.
Dieses Dokument ist nicht als Rechtsberatung gedacht und sollte nicht als Rechtsberatung ausgelegt werden. Die Gerichtsbarkeit, in der Sie tätig sind, hat möglicherweise verschiedene gesetzliche oder rechtliche Anforderungen, die für Ihr KI-System gelten. Wenden Sie sich an einen Rechtsexperten, wenn Sie unsicher sind, welche Gesetze oder Vorschriften für Ihr System gelten könnten, insbesondere wenn Sie der Meinung sind, dass diese sich auf diese Empfehlungen auswirken könnten. Beachten Sie, dass nicht alle diese Empfehlungen und Ressourcen für jedes Szenario geeignet sind, und umgekehrt können diese Empfehlungen und Ressourcen für einige Szenarien nicht ausreichen.
Veröffentlicht: 01.10.2024
Letzte Aktualisierung: 01.10.2024