Dernière mise à jour : mai 2024
Les principes de base de Copilot pour Bing
Copilot pour Bing est maintenant Microsoft Copilot. Pour plus d’informations sur notre approche de l’IA responsable, consultez la documentation ici : Note de transparence pour Microsoft Copilot.
Introduction
En février 2023, Microsoft a lancé la nouvelle expérience de recherche web Bing, une expérience de recherche web améliorée par IA. Il prend en charge les utilisateurs en résumant les résultats de la recherche web et en fournissant une expérience de conversation. Les utilisateurs peuvent également générer du contenu créatif, tel que des poèmes, des blagues, des histoires et, avec bing Créateur d’image, des images. Le nouveau Bing amélioré par l’IA s’exécute sur une variété de technologies avancées de Microsoft et OpenAI, notamment GPT, un modèle LLM (Large Language Model) de pointe et DALL-E, un modèle deep learning pour générer des images numériques à partir de descriptions en langage naturel, tous deux à partir d’OpenAI. Nous avons travaillé avec les deux modèles pendant des mois avant la publication publique afin de développer un ensemble personnalisé de fonctionnalités et de techniques pour rejoindre cette technologie d’intelligence artificielle de pointe et la recherche web dans le nouveau Bing. En novembre 2023, Microsoft a renommé le nouveau Bing en Copilot pour Bing.
Chez Microsoft, nous prenons au sérieux notre engagement en faveur d'une IA responsable. L’expérience Copilot pour Bing a été développée conformément aux principes de Microsoft en matière d’IA, aux Standard d’IA responsable de Microsoft, et en partenariat avec des experts en IA responsable au sein de l’entreprise, notamment l’Office of Responsible AI de Microsoft, nos équipes d’ingénierie, Microsoft Research et Aether. Vous pouvez en savoir plus sur l’IA responsable chez Microsoft ici.
Dans ce document, nous décrivons notre approche de l’IA responsable pour Copilot pour Bing. Avant la mise en production, nous avons adopté des méthodes de pointe pour identifier, mesurer et atténuer les risques potentiels et l’utilisation abusive du système, et pour garantir ses avantages pour les utilisateurs. Comme nous avons continué à évoluer Copilot pour Bing depuis la première publication, nous avons également continué à apprendre et à améliorer nos efforts d’IA responsable. Ce document sera mis à jour régulièrement pour communiquer nos processus et méthodes en constante évolution.
Termes clés
Copilot pour Bing est une expérience de recherche web améliorée par IA. Comme il s’exécute sur une nouvelle technologie puissante, nous commençons par définir certains termes clés.
Modèles Machine Learning qui aident à trier les données dans des classes étiquetées ou des catégories d’informations. Dans Copilot pour Bing, nous utilisons des classifieurs pour aider à détecter le contenu potentiellement dangereux soumis par les utilisateurs ou généré par le système afin d’atténuer la génération de ce contenu et l’utilisation incorrecte ou abusive du système.
Copilot pour Bing est fondée sur les résultats de la recherche web lorsque les utilisateurs recherchent des informations. Cela signifie que nous centrerons la réponse fournie à la requête ou à l’invite d’un utilisateur sur le contenu web de haut niveau, et que nous fournissons des liens vers des sites web afin que les utilisateurs puissent en savoir plus. Bing classe le contenu de la recherche web en fonction de caractéristiques fortement pondérées telles que la pertinence, la qualité et la crédibilité, et la fraîcheur. Nous décrivons ces concepts plus en détail dans Comment Bing fournit les résultats de recherche (voir « Qualité et crédibilité » dans « Comment Bing classe les résultats de la recherche »).
Nous considérons les réponses ancrées comme des réponses de Copilot pour Bing dans lesquelles les instructions sont prises en charge par les informations contenues dans les sources d’entrée, telles que les résultats de recherche web de la requête ou de l’invite, la base de connaissances d’informations vérifiées par Bing et, pour l’expérience de conversation, l’historique conversationnel récent de la conversation. Les réponses non ancrées sont celles dans lesquelles une instruction n’est pas ancrée dans ces sources d’entrée.
Dans ce contexte, les modèles de langage volumineux (LLM) sont des modèles IA qui sont entraînés sur de grandes quantités de données texte pour prédire des mots par séquences. Les llms sont capables d’effectuer diverses tâches, telles que la génération de texte, le résumé, la traduction, la classification, etc.
Le metaprompt est un programme qui sert à guider le comportement du système. Certaines parties du métapropt permettent d’aligner le comportement du système sur les principes de Microsoft AI et les attentes des utilisateurs. Par exemple, le métaprompt peut inclure une ligne telle que « communiquer dans la langue de votre choix de l’utilisateur ».
Méthode ou combinaison de méthodes conçues pour réduire les risques potentiels qui peuvent résulter de l’utilisation de fonctionnalités pilotées par l’IA dans Copilot pour Bing.
Texte, voix, images et/ou autres requêtes activées qu’un utilisateur envoie à Bing en tant qu’entrée au modèle qui alimente les nouvelles expériences génératives basées sur l’IA dans Bing. Par exemple, un utilisateur peut entrer l’invite suivante :
« Je planifie un voyage pour notre anniversaire en septembre. Quels sont les endroits où nous pouvons aller qui sont à moins de 3 heures de vol de Londres Heathrow ?”
Texte qu’un utilisateur envoie à Bing à partir de la barre de recherche pour la recherche web. Dans ce document, nous faisons la distinction entre une requête (pour la recherche sur le web) et une invite (pour les expériences génératives pilotées par l’IA dans Bing). Par exemple, un utilisateur peut entrer la requête suivante pour effectuer une recherche sur le web :
« destinations de voyage près de l’aéroport de Londres Heathrow »
Techniques utilisées par les experts pour évaluer les limitations et les vulnérabilités d’un système et pour tester l’efficacité des atténuations planifiées. Les tests d’équipe rouge et les tests de contrainte sont utilisés pour identifier les risques potentiels et sont distincts de la mesure systématique des risques.
Texte, image, graphiques, etc. qui Copilot pour Bing sorties en réponse à une invite. Les synonymes de « response » incluent « completion », « generation » et « answer ». Par exemple, Bing peut fournir la réponse suivante à l’invite que nous avons utilisée dans la définition de « prompt » ci-dessus :
« Félicitations pour votre anniversaire ! Il existe de nombreux endroits où vous pouvez aller qui sont à moins de 3 heures de vol de Londres Heathrow. Selon une source, certaines des évasions du week-end dans les trois heures d’avion de Londres sont Bilbao, Copenhague, Reyk et Stockholm 1, 2. Une autre source suggère certains des meilleurs endroits pour aller en Europe en septembre sont Cracovie, Florence, et Lisbonne 3, 4. Vous pouvez également case activée les vols directs de Londres Heathrow à différentes destinations et voir ce qui vous attire 5. J’espère que vous avez un voyage merveilleux !”
Utilisations prévues et nouvelles expériences d’IA
Copilot pour Bing les utilisations prévues sont de connecter les utilisateurs avec des résultats de recherche pertinents, de passer en revue les résultats du web pour trouver et résumer les réponses que les utilisateurs recherchent, d’aider les utilisateurs à affiner leurs recherches pour obtenir des réponses avec une expérience de conversation et de stimuler la créativité en aidant les utilisateurs à créer du contenu. les expériences d’IA générative de Copilot pour Bing ci-dessous prennent en charge l’objectif d’être un copilote basé sur l’IA pour le web.
Résumé. Lorsque les utilisateurs envoient une requête de recherche sur Copilot pour Bing, le système Bing traite la requête, effectue une ou plusieurs recherches web et utilise les premiers résultats de la recherche web pour générer un résumé des informations à présenter aux utilisateurs. Ces résumés incluent des références permettant aux utilisateurs de voir et d’accéder facilement aux résultats de recherche utilisés pour faciliter la présentation du résumé. Les résumés peuvent apparaître sur le côté droit de la page des résultats de la recherche et dans l’expérience de conversation.
Expérience de conversation. En plus des résumés, les utilisateurs peuvent discuter avec Copilot pour Bing système via du texte, une image ou une entrée vocale, poser des questions de suivi pour clarifier les recherches et trouver de nouvelles informations, et envoyer des invites pour générer du contenu créatif. Les références sont également incluses dans l’expérience de conversation quand Copilot pour Bing résume les résultats de recherche dans la réponse.
Génération de contenu créatif. Dans l’expérience de conversation et sur la page de recherche, les utilisateurs peuvent créer des poèmes, des blagues, des histoires, des images et d’autres contenus avec l’aide de Copilot pour Bing. Les images sont créées par Designer (l’ancienne Créateur d’image Bing), et les utilisateurs peuvent accéder à la fonctionnalité via Designer page d’accueil ainsi que la page Copilot.
Comment fonctionne Copilot pour Bing ?
Avec Copilot pour Bing, nous avons développé une approche innovante pour intégrer les llms de pointe à la recherche web. Lorsqu’un utilisateur entre une invite dans Copilot pour Bing, l’invite, l’historique des conversations récentes, le metaprompt et les résultats de recherche principaux sont envoyés en tant qu’entrées au LLM. Le modèle génère une réponse à l’aide de l’invite de l’utilisateur et de l’historique des conversations récentes pour contextualiser la demande, le métapropt pour aligner les réponses sur les principes et les attentes de l’utilisateur de Microsoft AI, et les résultats de la recherche pour situer les réponses dans du contenu web existant et de haut niveau.
Les réponses sont présentées aux utilisateurs dans plusieurs formats différents, tels que des liens traditionnels vers du contenu web, des résumés générés par l’IA, des images et des réponses de conversation. Les résumés et les réponses de conversation qui s’appuient sur les résultats de la recherche web incluent des références et une section « En savoir plus » sous les réponses, avec des liens vers les résultats de recherche qui ont été utilisés pour baser la réponse. Les utilisateurs peuvent cliquer sur ces liens pour en savoir plus sur une rubrique et les informations utilisées pour établir le résumé ou la réponse de conversation.
Dans l’expérience Copilot, les utilisateurs peuvent effectuer des recherches web par conversation en ajoutant du contexte à leur invite et en interagissant avec les réponses système pour spécifier davantage leurs centres d’intérêt. Par exemple, un utilisateur peut poser des questions de suivi, demander des informations de clarification supplémentaires ou répondre au système de manière conversationnelle. Dans l’expérience de conversation, les utilisateurs peuvent également sélectionner une réponse à partir de suggestions pré-écrites, que nous appelons suggestions de conversation. Ces boutons apparaissent après chaque réponse de Copilot et fournissent des invites suggérées pour poursuivre la conversation dans l’expérience de conversation. Les suggestions de conversation apparaissent également avec le contenu résumé sur la page des résultats de la recherche comme point d’entrée pour l’expérience de conversation.
Copilot pour Bing permet également à un utilisateur de créer des récits, des poèmes, des paroles de chansons et des images avec l’aide de Bing. Quand Copilot pour Bing détecte l’intention de l’utilisateur de générer du contenu créatif (par exemple, l’invite commence par « écrivez-moi un... »), le système génère, dans la plupart des cas, du contenu réactif à l’invite de l’utilisateur. De même, quand Copilot pour Bing détecte l’intention de l’utilisateur de générer une image (par exemple, l’invite commence par « dessinez-moi un... »), le système génère, dans la plupart des cas, une image qui répond à l’invite de l’utilisateur. Dans l’expérience de recherche visuelle dans la conversation, avec une image prise par l’appareil photo de l’utilisateur, chargée à partir de l’appareil de l’utilisateur ou liée à partir du web, les utilisateurs peuvent inviter Copilot pour Bing à comprendre le contexte, à interpréter et à répondre aux questions sur l’image. Les utilisateurs peuvent également charger leurs fichiers sur Copilot pour les interpréter, les convertir, les traiter ou les calculer. Dans l’expérience Microsoft Designer à laquelle les utilisateurs peuvent accéder via Copilot pour Bing, les utilisateurs peuvent non seulement générer des images à l’aide d’invites, mais également les redimensionner ou les relooker, ou apporter des modifications telles que le flou de l’arrière-plan ou la rendu des couleurs plus vives.
Les utilisateurs disposant de comptes Microsoft (MSA) ont désormais également la possibilité de s’abonner à Copilot Pro qui offre une expérience améliorée, notamment des performances accélérées et une création d’images IA plus rapide. Copilot Pro est actuellement disponible dans des pays limités, et nous prévoyons de rendre Copilot Pro disponible dans d’autres marchés bientôt.
Pour en savoir plus sur Copilot Pro, rendez-vous ici.
Copilot pour Bing s’efforce de fournir des résultats de recherche variés et complets avec son engagement d’un accès libre et ouvert à l’information. Dans le même temps, nos efforts de qualité de produit incluent le travail pour éviter de promouvoir par inadvertance du contenu potentiellement dangereux pour les utilisateurs. Pour plus d’informations sur la façon dont Bing classe le contenu, notamment sur la façon dont il définit la pertinence, ainsi que sur la qualité et la crédibilité d’une page web, consultez les « Instructions bing pour les webmestres ». Pour plus d’informations sur les principes de modération du contenu bing, consultez « Comment Bing fournit les résultats de la recherche ».
Dans l’expérience Copilot pour Windows, Copilot pour Bing pouvez travailler avec le système d’exploitation Windows pour fournir des compétences spécifiques à Windows, telles que la modification du thème ou de l’arrière-plan de l’utilisateur, et la modification de paramètres tels que l’audio, Bluetooth et la mise en réseau. Ces expériences permettent à l’utilisateur de configurer ses paramètres et d’améliorer son expérience utilisateur à l’aide d’invites en langage naturel pour le LLM. Des fonctionnalités spécifiques à l’application peuvent également être fournies à partir de plug-ins d’application tiers. Celles-ci peuvent automatiser les tâches répétitives et améliorer l’efficacité de l’utilisateur. Étant donné que les llms peuvent parfois faire des erreurs, des invites de confirmation de l’utilisateur appropriées sont fournies afin que l’utilisateur soit l’arbitre final des modifications qui peuvent être apportées.
Identification, mesure et atténuation des risques
Comme d’autres technologies transformationnelles, l’exploitation des avantages de l’IA n’est pas sans risque, et une partie essentielle du programme d’IA responsable de Microsoft est conçue pour identifier les risques potentiels, mesurer leur propension à se produire et créer des atténuations pour y remédier. Guidés par nos principes d’IA et notre Standard d’IA responsable, nous avons cherché à identifier, mesurer et atténuer les risques potentiels et l’utilisation abusive des Copilot pour Bing tout en garantissant les utilisations transformatrices et bénéfiques que la nouvelle expérience offre. Dans les sections ci-dessous, nous décrivons notre approche itérative pour identifier, mesurer et atténuer les risques potentiels.
Au niveau du modèle, notre travail a commencé par des analyses exploratoires de GPT-4 à la fin de l’été 2022. Cela a inclus la réalisation de tests approfondis en équipe rouge en collaboration avec OpenAI. Ce test a été conçu pour évaluer le fonctionnement de la technologie la plus récente en l'absence de toute mesure de protection supplémentaire. À ce stade, notre intention spécifique était de produire des réponses nuisibles, de mettre en évidence les possibilités d'utilisation abusive et d'identifier les fonctionnalités et les limites. Nos apprentissages combinés sur OpenAI et Microsoft ont contribué à des avancées dans le développement de modèles et, pour nous chez Microsoft, ont permis de mieux comprendre les risques et ont contribué à des stratégies d’atténuation précoces pour Copilot dans Bing.
En plus des tests d’équipe rouge au niveau du modèle, une équipe multidisciplinaire d’experts a effectué de nombreuses séries de tests d’équipe rouge au niveau de l’application sur les expériences d’IA Copilot pour Bing avant de les rendre disponibles publiquement dans notre version préliminaire limitée. Ce processus nous a permis de mieux comprendre comment le système pouvait être exploité par des acteurs malveillants et d'améliorer nos mesures d'atténuation. Les testeurs de stress non contradictoires ont également évalué de manière approfondie les nouvelles fonctionnalités de Bing afin d'en déceler les lacunes et les vulnérabilités. Après leur publication, les nouvelles expériences d'IA dans Bing seront intégrées dans l'infrastructure de mesure et de test de la production existante de l'organisation d'ingénierie de Bing. Par exemple, les testeurs de l'équipe rouge, issus de régions et d'horizons différents, tentent continuellement et systématiquement de compromettre le système, et leurs résultats sont utilisés pour élargir les ensembles de données que Bing utilise pour améliorer le système.
Les tests d’équipe rouge et les tests de contrainte peuvent exposer des instances de risques spécifiques, mais en production, les utilisateurs auront des millions de types de conversations différents avec Copilot pour Bing. En outre, les conversations sont multitours et contextuelles, et l’identification du contenu nuisible au sein d’une conversation est une tâche complexe. Pour mieux comprendre et traiter les risques potentiels dans les expériences d’IA Copilot pour Bing, nous avons développé des métriques d’IA responsables supplémentaires spécifiques à ces nouvelles expériences d’IA pour mesurer les risques potentiels tels que les jailbreaks, le contenu nuisible et le contenu non basé. Nous avons également permis des mesures à grande échelle grâce à des pipelines de mesure partiellement automatisés. Chaque fois que le produit change, que les mesures d'atténuation existantes sont mises à jour ou que de nouvelles mesures d'atténuation sont proposées, nous mettons à jour nos pipelines de mesures pour évaluer à la fois les performances du produit et les mesures de l'IA responsable.
À titre d’exemple, le pipeline de mesure partiellement automatisé mis à jour pour le contenu dangereux comprend deux innovations majeures : la simulation de conversation et l’annotation de conversation automatisée et vérifiée par l’homme. Tout d’abord, les experts en IA responsable ont créé des modèles pour capturer la structure et le contenu des conversations qui pourraient entraîner différents types de contenu nuisible. Ces modèles ont ensuite été donnés à un agent conversationnel qui a interagi en tant qu’utilisateur hypothétique avec Copilot pour Bing, générant des conversations simulées. Pour déterminer si ces conversations simulées contenaient du contenu nuisible, nous avons pris des instructions qui sont généralement utilisées par des linguistes experts pour étiqueter les données et les avons modifiées pour les utiliser par GPT-4 pour étiqueter les conversations à grande échelle, en affinant les instructions jusqu’à ce qu’il y ait un accord significatif entre les conversations étiquetées par modèle et les conversations étiquetées à l’homme. Enfin, nous avons utilisé les conversations étiquetées par modèle pour calculer une métrique d’IA responsable qui capture l’efficacité des Copilot pour Bing à atténuer le contenu dangereux.
Nos pipelines de mesure nous permettent d'effectuer rapidement des mesures de risques potentiels à grande échelle. À mesure que nous identifions de nouveaux problèmes au cours de la période de prévisualisation et de tests de l'équipe rouge, nous continuons à élargir les ensembles de mesures afin d'évaluer des risques supplémentaires.
Lorsque nous avons identifié les risques potentiels et les abus grâce à des processus tels que les tests de l'équipe rouge et les tests de stress, et que nous les avons mesurés à l'aide des approches innovantes décrites ci-dessus, nous avons développé des mesures d'atténuation supplémentaires par rapport à celles utilisées pour la recherche traditionnelle. Ci-dessous, nous décrivons certaines de ces atténuations. Nous continuerons à surveiller les expériences d’IA Copilot pour Bing pour améliorer les performances et les atténuations des produits.
Mise en production progressive, évaluation continue. Nous nous engageons à apprendre et à améliorer continuellement notre approche d’IA responsable à mesure que nos technologies et que le comportement des utilisateurs évoluent. Notre stratégie de mise en production incrémentielle a été un élément essentiel de la façon dont nous faisons passer notre technologie en toute sécurité des labos au monde, et nous nous engageons à mettre en place un processus délibéré et réfléchi pour garantir les avantages de Copilot pour Bing. La limitation du nombre de personnes ayant accès au cours de la période de préversion nous a permis de découvrir comment les utilisateurs utilisent Copilot pour Bing, y compris comment les utilisateurs peuvent l’utiliser à mauvais escient, afin que nous puissions essayer d’atténuer les problèmes émergents avant une version plus large. Par exemple, nous exigeons que les utilisateurs s’authentifient à l’aide de leur compte Microsoft avant d’accéder à la nouvelle expérience Bing complète. Les utilisateurs non authentifiés ne peuvent accéder qu’à une préversion limitée de l’expérience. Ces mesures découragent les abus et nous aident (si nécessaire) à prendre les mesures appropriées en réponse aux violations du Code de conduite. Nous apportons des modifications à Copilot pour Bing quotidiennement pour améliorer les performances des produits, améliorer les atténuations existantes et implémenter de nouvelles atténuations en réponse à nos apprentissages au cours de la période de préversion.
Mise à la base dans les résultats de recherche. Comme indiqué ci-dessus, Copilot pour Bing est conçu pour fournir des réponses prises en charge par les informations contenues dans les résultats de la recherche web lorsque les utilisateurs recherchent des informations. Par exemple, le système est fourni avec le texte des premiers résultats de recherche et des instructions via la métaprompt pour présenter sa réponse. Toutefois, en résumant le contenu du web, Copilot pour Bing peuvent inclure dans sa réponse des informations qui ne sont pas présentes dans ses sources d’entrée. En d’autres termes, il peut produire des résultats non creusés. Nos premières évaluations ont indiqué que les résultats non basés dans les conversations peuvent être plus fréquents pour certains types d’invites ou de sujets que d’autres, tels que la demande de calculs mathématiques, d’informations financières ou de marché (par exemple, les résultats de l’entreprise, les données sur les performances boursières) et des informations telles que des dates précises d’événements ou des prix spécifiques d’articles. Les utilisateurs doivent toujours faire preuve de prudence et utiliser leur meilleur jugement lors de l’affichage des résultats de recherche résumés, que ce soit sur la page des résultats de la recherche ou dans l’expérience de conversation. Nous avons pris plusieurs mesures pour atténuer le risque que les utilisateurs s’appuient sur du contenu généré non terreux dans les scénarios de synthèse et les expériences de conversation. Par exemple, les réponses dans Copilot pour Bing basées sur les résultats de recherche incluent des références aux sites web sources pour permettre aux utilisateurs de vérifier la réponse et d’en savoir plus. Les utilisateurs sont également informés de manière explicite qu'ils interagissent avec un système d'IA et il leur est conseillé de consulter les documents sources des résultats sur le web pour les aider à faire preuve de discernement.
Classifieurs et méta-prompteurs basés sur l’IA pour atténuer les risques potentiels ou l’utilisation incorrecte. L’utilisation de LLM peut produire du contenu problématique qui peut entraîner des risques ou une mauvaise utilisation. Il peut s'agir, par exemple, de textes relatifs à l'automutilation, à la violence, à des contenus graphiques, à la propriété intellectuelle, à des informations inexactes, à des propos haineux ou à des textes pouvant se rapporter à des activités illégales. Les classificateurs et les méta-prompteurs sont deux exemples de mesures d'atténuation utilisées par Copilot pour Bing pour réduire le risque lié à ce type de contenu. Les classificateurs classent le texte pour signaler différents types de contenus potentiellement dangereux dans les requêtes de recherche, les requêtes de conversation ou les réponses générées. Bing utilise des classifieurs et des filtres de contenu basés sur l’IA, qui s’appliquent à tous les résultats de recherche et fonctionnalités pertinentes ; Nous avons conçu des classifieurs d’invite et des filtres de contenu supplémentaires spécifiquement pour traiter les risques potentiels liés aux fonctionnalités Copilot pour Bing. Les indicateurs entraînent des atténuations potentielles, telles que le fait de ne pas renvoyer le contenu généré à l’utilisateur, de détourner l’utilisateur vers une autre rubrique ou de rediriger l’utilisateur vers la recherche traditionnelle. Le méta-promptage consiste à donner des instructions au modèle pour guider son comportement, notamment pour que le système se comporte conformément aux principes de Microsoft en matière d'IA et aux attentes des utilisateurs. Par exemple, le métaprompt peut inclure une ligne telle que « communiquer dans la langue de votre choix de l’utilisateur ».
Protection de la confidentialité dans la recherche visuelle dans Copilot pour Bing. Lorsque les utilisateurs chargent une image dans le cadre de leur invite de conversation, Copilot pour Bing utiliseront la technologie de floutage du visage avant d’envoyer l’image au modèle IA. Le flou de visage est utilisé pour protéger la vie privée des personnes dans l’image. La technologie de floutage des visages s’appuie sur des indices de contexte pour déterminer où flouter et tentera de flouter tous les visages. Avec les visages flous, le modèle IA peut comparer l’image entrée à celles d’images disponibles publiquement sur Internet. Par conséquent, par exemple, Copilot pour Bing peut être en mesure d’identifier un basketteur célèbre à partir d’une photo de ce joueur sur un terrain de basket-ball en créant une représentation numérique qui reflète le numéro de maillot du joueur, la couleur du maillot, la présence d’un cerceau de basketball, etc. Copilot pour Bing ne stocke pas de représentations numériques de personnes à partir d’images chargées et ne les partage pas avec des tiers. Copilot pour Bing utilise des représentations numériques des images que les utilisateurs chargent uniquement dans le but de répondre aux invites des utilisateurs, puis elles sont supprimées dans les 30 jours suivant la fin de la conversation.
Si l’utilisateur demande Copilot pour Bing d’informations sur une image chargée, les réponses aux conversations peuvent refléter l’impact du flou du visage sur la capacité du modèle à fournir des informations sur l’image chargée. Par exemple, Copilot pour Bing peut décrire quelqu’un comme ayant un visage flou.
Limitation de la dérive conversationnelle. Au cours de la période de préversion, nous avons appris que les sessions de conversation très longues peuvent entraîner des réponses répétitives, inutiles ou incohérentes avec le ton prévu de Copilot pour Bing. Pour remédier à cette dérive conversationnelle, nous avons limité le nombre de tours (échanges contenant à la fois une question utilisateur et une réponse de Copilot pour Bing) par session de conversation. Nous continuons d’évaluer d’autres approches pour atténuer ce problème.
Invite d’enrichissement. Dans certains cas, l’invite d’un utilisateur peut être ambiguë. Dans ce cas, Copilot pour Bing pouvez utiliser le LLM pour générer plus de détails dans l’invite afin de s’assurer que les utilisateurs obtiennent la réponse qu’ils recherchent. Cet enrichissement rapide ne repose pas sur les connaissances de l’utilisateur ou de ses recherches antérieures, mais plutôt sur le modèle IA. Ces requêtes révisées sont visibles dans l’historique des conversations de l’utilisateur et, comme d’autres recherches, peuvent être supprimées à l’aide de contrôles dans le produit.
Conception centrée sur l’utilisateur et interventions relatives à l’expérience utilisateur. La conception centrée sur l’utilisateur et les expériences utilisateur sont un aspect essentiel de l’approche de Microsoft en matière d’IA responsable. L’objectif est d’enraciner la conception du produit dans les besoins et les attentes des utilisateurs. À mesure que les utilisateurs interagissent avec Copilot pour Bing pour la première fois, nous proposons divers points de contact conçus pour les aider à comprendre les fonctionnalités du système, à leur révéler que Copilot pour Bing est optimisé par l’IA et à communiquer des limitations. L’expérience est conçue de cette façon pour aider les utilisateurs à tirer le meilleur parti de Copilot pour Bing et réduire le risque de dépendance excessive. Les éléments de l’expérience aident également les utilisateurs à mieux comprendre Copilot pour Bing et leurs interactions avec celle-ci. Celles-ci incluent des suggestions de conversation spécifiques à l’IA responsable (par exemple, comment Bing utilise-t-il l’IA ? Pourquoi ne répondez-vous pas Copilot pour Bing sur certains sujets ?), des explications sur les limitations, des façons dont les utilisateurs peuvent en savoir plus sur le fonctionnement du système et signaler des commentaires, et des références facilement navigables qui apparaissent dans les réponses pour montrer aux utilisateurs les résultats et les pages dans lesquelles les réponses sont ancrées.
Divulgation de l’IA. Copilot pour Bing fournit plusieurs points de contact pour la divulgation significative de l’IA où les utilisateurs sont avertis qu’ils interagissent avec un système IA, ainsi que des opportunités d’en savoir plus sur les Copilot pour Bing. Donner ces connaissances aux utilisateurs peut les aider à ne pas trop se fier à l'IA et à connaître les points forts et les limites du système.
Provenance du média.Microsoft Designer a activé la fonctionnalité « Informations d’identification de contenu », qui utilise des méthodes de chiffrement pour marquer la source, ou « provenance », de toutes les images générées par l’IA créées sur Designer. La fonctionnalité de filigrane numérique invisible affiche la source, l’heure et la date de création d’origine, et ces informations ne peuvent pas être modifiées. La technologie utilise les normes définies par la Coalition for Content and Authentic (C2PA) pour ajouter une couche supplémentaire de confiance et de transparence pour les images générées par l’IA. Microsoft est co-fondateur de C2PA et a contribué avec la technologie de provenance de contenu numérique de base.
Conditions d’utilisation et code de conduite. Cette ressource régit l’utilisation de Copilot dans Bing. Les utilisateurs doivent respecter les conditions d’utilisation et le code de conduite, qui, entre autres choses, les informe des utilisations autorisées et interdites et des conséquences de la violation des conditions. Les conditions d’utilisation fournissent également des informations supplémentaires aux utilisateurs et servent de référence pratique aux utilisateurs pour en savoir plus sur les Copilot pour Bing.
Opérations et réponse rapide. Nous utilisons également les processus opérationnels et de surveillance continus de Copilot pour Bing pour répondre au moment où Copilot pour Bing reçoit des signaux ou reçoit un rapport, indiquant une utilisation ou une violation possible des conditions d’utilisation ou du code de conduite.
Commentaires, surveillance et supervision. L’expérience Copilot pour Bing s’appuie sur des outils existants qui permettent aux utilisateurs d’envoyer des commentaires et de signaler des problèmes, qui sont examinés par les équipes des opérations de Microsoft. Les processus opérationnels de Bing ont également été étendus pour prendre en charge les fonctionnalités au sein de Copilot pour Bing expérience, par exemple, en mettant à jour la page Signaler un problème pour inclure les nouveaux types de contenu générés par les utilisateurs à l’aide du modèle.
Notre approche de l’identification, de la mesure et de l’atténuation des risques continuera d’évoluer à mesure que nous en apprenons davantage, et nous apportons déjà des améliorations en fonction des commentaires recueillis au cours de la période de préversion.
Détection de contenu automatisée. Lorsque les utilisateurs chargent des images dans le cadre de leur invite de conversation, Copilot pour Bing déploie des outils pour détecter l’exploitation sexuelle des enfants et l’imagerie d’abus (CSEAI), plus particulièrement la technologie de correspondance de hachage PhotoDNA. Microsoft a développé PhotoDNA pour aider à trouver des doublons de CSEAI connus. Microsoft signale toutes les CSEAI apparentes au National Center for Missing and Exploited Children (NCMEC), comme l’exige la loi américaine. Lorsque les utilisateurs chargent des fichiers à analyser ou à traiter, Copilot déploie l’analyse automatisée pour détecter le contenu susceptible d’entraîner des risques ou une mauvaise utilisation, comme du texte pouvant être lié à des activités illégales ou à du code malveillant.
Protection de la confidentialité
La croyance de longue date de Microsoft que la confidentialité est un droit humain fondamental a informé chaque étape du développement et du déploiement de Copilot pour Bing expérience de Microsoft. Nos engagements à protéger la vie privée de tous les utilisateurs, y compris en fournissant aux individus la transparence et le contrôle de leurs données et en intégrant la confidentialité par conception par le biais de la minimisation des données et de la limitation des objectifs, sont fondamentaux pour Copilot pour Bing. À mesure que nous faisons évoluer notre approche pour fournir les expériences d’IA générative de l’Copilot pour Bing, nous allons continuellement explorer la meilleure façon de protéger la confidentialité. Ce document sera mis à jour au fur et à mesure. Pour plus d’informations sur la façon dont Microsoft protège la confidentialité de nos utilisateurs, consultez la Déclaration de confidentialité Microsoft.
Dans l’expérience Copilot pour Windows, les compétences Windows peuvent, dans le cadre de leurs fonctionnalités, partager des informations utilisateur avec la conversation de conversation. Cela est soumis à l’approbation de l’utilisateur et les invites de l’interface utilisateur s’affichent pour confirmer l’intention de l’utilisateur avant que les informations utilisateur ne soient partagées avec la conversation de conversation.
Microsoft continue de prendre en compte les besoins des enfants et des jeunes dans le cadre de l’évaluation des risques des nouvelles fonctionnalités d’IA générative dans Copilot pour Bing. Tous les comptes enfants Microsoft qui identifient l’utilisateur comme étant âgé de moins de 13 ans ou spécifiés par les lois locales ne peuvent pas se connecter pour accéder à la nouvelle expérience Bing complète.
Comme décrit ci-dessus, pour tous les utilisateurs, nous avons implémenté des mesures de protection qui atténuent le contenu potentiellement dangereux. Dans Copilot pour Bing, les résultats sont définis comme dans le mode Strict de Bing SafeSearch, qui offre le niveau de protection le plus élevé dans le main recherche Bing, empêchant ainsi les utilisateurs, y compris les utilisateurs adolescents, d’être exposés à du contenu potentiellement dangereux. En plus des informations que nous avons fournies dans ce document et dans notre FAQ sur les fonctionnalités de conversation, des informations supplémentaires sur la façon dont Copilot pour Bing fonctionne pour éviter de répondre avec du contenu offensant inattendu dans les résultats de recherche sont disponibles ici.
Microsoft s’est engagé à ne pas fournir de publicité personnalisée basée sur le comportement en ligne aux enfants dont la date de naissance dans leur compte Microsoft les identifie comme étant âgés de moins de 18 ans. Cette protection importante s’étend aux publicités dans Copilot pour Bing fonctionnalités. Les utilisateurs peuvent voir des publicités contextuelles basées sur la requête ou l’invite utilisée pour interagir avec Bing.
Pour libérer le potentiel de transformation de l’IA générative, nous devons renforcer la confiance dans la technologie en permettant aux individus de comprendre comment leurs données sont utilisées et en leur fournissant des choix et des contrôles significatifs sur leurs données. Copilot pour Bing est conçu pour donner la priorité à l’organisme humain, en fournissant des informations sur le fonctionnement du produit ainsi que sur ses limites, et en étendant nos choix et contrôles de consommateurs robustes aux fonctionnalités Copilot pour Bing.
La Déclaration de confidentialité de Microsoft fournit des informations sur nos pratiques de confidentialité transparentes pour protéger nos clients, et elle fournit des informations sur les contrôles qui permettent à nos utilisateurs d’afficher et de gérer leurs données personnelles. Pour vous assurer que les utilisateurs disposent des informations dont ils ont besoin lorsqu’ils interagissent avec les nouvelles fonctionnalités de conversation de Bing, les divulgations intégrées au produit informent les utilisateurs qu’ils souhaitent utiliser un produit IA, et nous fournissons des liens vers d’autres FAQ et des explications sur le fonctionnement de ces fonctionnalités. Microsoft continuera d’écouter les commentaires des utilisateurs et ajoutera des détails supplémentaires sur les fonctionnalités conversationnelles de Bing, le cas échéant, afin de prendre en charge la compréhension du fonctionnement du produit.
Microsoft fournit également à ses utilisateurs des outils robustes pour exercer leurs droits sur leurs données personnelles. Pour les données collectées par Copilot pour Bing, notamment par le biais de requêtes et d’invites utilisateur, le tableau de bord de confidentialité Microsoft fournit aux utilisateurs authentifiés (connectés) des outils pour exercer leurs droits de personne concernée, notamment en offrant aux utilisateurs la possibilité d’afficher, d’exporter et de supprimer l’historique des conversations stocké. Microsoft continue de recevoir des commentaires sur la façon dont il souhaite gérer sa nouvelle expérience Bing, notamment via l’utilisation d’expériences de gestion des données en contexte.
Copilot pour Bing honore également les demandes relevant du droit européen à l’oubli, en suivant le processus que Microsoft a développé et affiné pour la fonctionnalité de recherche traditionnelle de Bing. Tous les utilisateurs peuvent signaler des préoccupations concernant le contenu et les réponses générés ici, et nos utilisateurs européens peuvent utiliser ce formulaire pour envoyer des demandes de blocage des résultats de recherche en Europe sous le droit à l’oubli.
Copilot pour Bing respecteront les choix de confidentialité des utilisateurs, y compris ceux qui ont été précédemment effectués dans Bing, tels que le consentement pour la collecte et l’utilisation des données demandées par le biais de bannières de cookies et de contrôles disponibles dans le tableau de bord de confidentialité Microsoft. Pour aider les utilisateurs à prendre des décisions éclairées, nous avons utilisé notre processus de révision interne pour examiner attentivement la façon dont les choix sont présentés aux utilisateurs.
Outre les contrôles disponibles via le tableau de bord de confidentialité Microsoft, qui permettent aux utilisateurs d’afficher, d’exporter et de supprimer leur historique de recherche, y compris les composants de leur historique des conversations, les utilisateurs authentifiés qui ont activé la fonctionnalité d’historique des conversations dans le produit ont la possibilité d’afficher, d’accéder et de télécharger l’historique des conversations via des contrôles intégrés au produit. Les utilisateurs peuvent effacer des conversations spécifiques de l’historique des conversations ou désactiver entièrement la fonctionnalité d’historique des conversations à tout moment en visitant la page Paramètres Bing. Les utilisateurs peuvent également choisir d’autoriser la personnalisation pour accéder à une expérience plus personnalisée avec des réponses personnalisées. Les utilisateurs peuvent accepter et refuser la personnalisation à tout moment dans les paramètres de conversation de la page Paramètres Bing. L’effacement de conversations spécifiques de l’historique des conversations empêche leur utilisation pour la personnalisation. FAQ.
Plus d’informations sur l’historique des conversations et la personnalisation sont fournies aux utilisateurs dans Copilot pour BingCopilot pour Bing a été conçu avec la confidentialité à l’esprit, de sorte que les données personnelles sont collectées et utilisées uniquement en fonction des besoins et ne sont pas conservées plus longtemps que nécessaire. Comme mentionné ci-dessus, la fonctionnalité Recherche visuelle dans Copilot pour Bing déploie un mécanisme qui flout les visages dans les images au moment du chargement par les utilisateurs, afin que les images faciales ne soient pas traitées ou stockées ultérieurement. Vous trouverez plus d’informations sur les données personnelles collectées par Bing, leur utilisation et leur mode de stockage et de suppression dans la Déclaration de confidentialité Microsoft, qui fournit également des informations sur les nouvelles fonctionnalités de conversation bing.
Copilot dans Bing a des stratégies de conservation et de suppression des données pour garantir que les données personnelles collectées via les fonctionnalités de conversation bing sont conservées uniquement aussi longtemps que nécessaire.
Nous continuerons d’apprendre et de faire évoluer notre approche en fournissant des Copilot pour Bing, et dans ce cas, nous continuerons à travailler dans toutes les disciplines pour aligner notre innovation ia avec les valeurs humaines et les droits fondamentaux, y compris la protection des jeunes utilisateurs et de la vie privée.
Copilot avec protection des données commerciales
Copilot avec protection des données commerciales, anciennement appelé Bing Chat Enterprise (« BCE »), a été publié par Microsoft en préversion publique gratuite en juillet 2023 en tant que module complémentaire gratuit pour certains clients M365. Copilot avec protection des données commerciales est une expérience de recherche web améliorée par IA pour les utilisateurs finaux d’entreprise.
Comme avec Copilot pour Bing, lorsqu’un utilisateur final Copilot avec protection des données commerciales entre une invite dans l’interface, l’invite, la conversation immédiate, les résultats de recherche principaux et le métaprompt sont envoyés en tant qu’entrées au LLM. Le modèle génère une réponse à l’aide de l’invite et de l’historique des conversations immédiates pour contextualiser la demande, du metaprompt pour aligner les réponses sur les principes de Microsoft AI et les attentes des utilisateurs, et des résultats de la recherche pour baser les réponses dans du contenu web existant et de haut niveau. Cela fonctionne de la même façon que Copilot dans Bing, comme décrit ci-dessus dans ce document, à l’exception du fait que Copilot avec protection des données commerciales s’appuie uniquement sur l’historique immédiat des conversations (et non sur l’historique des conversations récentes) en raison du fait que l’historique des conversations stocké n’est pas une fonctionnalité actuellement prise en charge. Designer et Recherche visuelle sont désormais disponibles dans cette version.
Comme d’autres technologies transformationnelles, l’exploitation des avantages de l’IA n’est pas sans risque, et une partie essentielle du programme d’IA responsable de Microsoft est conçue pour identifier les risques potentiels, mesurer leur propension à se produire et créer des atténuations pour y remédier. Là encore, la description ci-dessus des efforts de Microsoft pour identifier, mesurer et atténuer les risques potentiels pour Copilot pour Bing également s’appliquer à cette version, avec quelques précisions sur les atténuations décrites ci-dessous :
Mise en production progressive, évaluation continue. Tout comme avec Copilot Bing, pour Copilot avec protection des données commerciales, nous avons également adopté une approche de mise en production incrémentielle. Le 18 juillet 2023, Copilot avec protection des données commerciales est devenu disponible en préversion gratuite pour les clients d’entreprise éligibles disposant de comptes M365 spécifiques à activer pour leurs utilisateurs finaux d’entreprise. Trente (30) jours après la notification des clients d’entreprise éligibles, Copilot avec la protection des données commerciales est devenu « par défaut » pour ces mêmes clients. Copilot avec la protection des données commerciales est également disponible depuis pour des comptes M365 enseignants spécifiques. Copilot avec protection des données commerciales a été mis à la disposition générale de certains clients d’entreprise le 1er décembre 2023. À l’avenir, nous prévoyons d’étendre l’accès à Copilot avec la protection des données commerciales à plus Microsoft Entra ID utilisateurs.
Conditions d’utilisation et code de conduite. Les utilisateurs finaux de Copilot avec protection des données commerciales doivent respecter les conditions d’utilisation de l’utilisateur final. Les présentes Conditions d’utilisation informent les utilisateurs finaux des utilisations autorisées et interdites et des conséquences de la violation des conditions.
Opérations et réponse rapide. Nous utilisons également les processus opérationnels et de surveillance continus de Copilot pour Bing pour traiter lorsque Copilot avec la protection des données commerciales reçoit des signaux ou reçoit un rapport, indiquant une utilisation ou une violation possible des conditions d’utilisation de l’utilisateur final.
Commentaires, surveillance et supervision. Copilot avec protection des données commerciales utilise les mêmes outils que Copilot pour Bing pour permettre aux utilisateurs d’envoyer des commentaires et de signaler des problèmes, qui sont examinés par les équipes des opérations de Microsoft. Les processus opérationnels de Copilot pour Bing ont également été étendus pour prendre en charge les fonctionnalités de Copilot avec des expériences de protection des données commerciales, par exemple en mettant à jour la page Signaler un problème pour inclure les nouveaux types de contenu générés par les utilisateurs à l’aide du modèle.
Pour s’assurer que les utilisateurs finaux disposent des informations dont ils ont besoin lorsqu’ils interagissent avec Copilot avec la protection des données commerciales, la documentation produit est disponible en bas de ce document, y compris les pages FAQ et En savoir plus.
Requêtes et les réponses générées par les utilisateurs finaux dans Copilot avec la protection des données commerciales sont traitées et stockées conformément aux normes de gestion des données d’entreprise. L’offre Copilot avec protection des données commerciales est actuellement disponible uniquement pour les clients d’entreprise et leurs utilisateurs finaux adultes authentifiés. Par conséquent, nous ne prévoyons pas que les enfants ou les jeunes seront les utilisateurs finaux de Copilot avec la protection des données commerciales pour l’instant. En outre, Copilot avec la protection des données commerciales ne fournit aucune publicité ciblée comportementalement aux utilisateurs finaux. Au lieu de cela, toutes les annonces affichées sont uniquement des publicités contextuellement pertinentes.
En savoir plus
Ce document fait partie d’un effort plus large de Microsoft visant à mettre en pratique nos principes d’IA. Pour en savoir plus, consultez :
Approche de Microsoft pour une IA responsable
Standard d’IA responsable de Microsoft
À propos de ce document
© 2023 Microsoft. Tous droits réservés. Ce document est fourni « tel quelle » et à titre d’information uniquement. Les informations et vues exprimées dans ce document, y compris l’URL et d’autres références de site Web Internet, peuvent changer sans préavis. Vous assumez tous les risques liés à son utilisation. Certains exemples sont à titre d’illustration uniquement et sont fictifs. Aucune association réelle n’est prévue ou déduite.