Se connecter avec Microsoft
S'identifier ou créer un compte.
Bonjour,
Sélectionnez un autre compte.
Vous avez plusieurs comptes
Choisissez le compte avec lequel vous voulez vous connecter.

Dernière mise à jour : février 2024

Les principes de base de Copilot dans Bing   

Introduction  

En février 2023, Microsoft a lancé la nouvelle expérience de recherche web Bing, une expérience de recherche web améliorée par IA. Il prend en charge les utilisateurs en résumant les résultats de la recherche web et en fournissant une expérience de conversation. Les utilisateurs peuvent également générer du contenu créatif, tel que des poèmes, des blagues, des histoires et, avec Bing Créateur d'image, des images. Le nouveau Bing amélioré par l’IA s’exécute sur une variété de technologies avancées de Microsoft et OpenAI, notamment GPT-4, un modèle LLM (Large Language Model) de pointe et DALL-E, un modèle d’apprentissage profond pour générer des images numériques à partir de descriptions en langage naturel, les deux à partir d’OpenAI. Nous avons travaillé avec les deux modèles pendant des mois avant leur publication publique afin de développer un ensemble personnalisé de fonctionnalités et de techniques pour joindre cette technologie d’IA de pointe et la recherche web dans le nouveau Bing.  En novembre 2023, Microsoft a renommé le nouveau Bing en Copilot dans Bing.

Chez Microsoft, nous prenons au sérieux notre engagement envers l’IA responsable. L’expérience Copilot dans Bing a été développée conformément aux principes d’IA de Microsoft, à la norme d’IA responsable de Microsoft, et en partenariat avec des experts en IA responsable au sein de l’entreprise, notamment Le Bureau de l’IA responsable de Microsoft, nos équipes d’ingénierie, Microsoft Research et Aether. Vous pouvez en savoir plus sur l’IA responsable chez Microsoft ici.  

Dans ce document, nous décrivons notre approche de l’IA responsable pour Copilot dans Bing. Avant la mise en production, nous avons adopté des méthodes de pointe pour identifier, mesurer et atténuer les risques potentiels et l’utilisation abusive du système, et pour garantir ses avantages pour les utilisateurs. Comme nous avons continué à faire évoluer Copilot dans Bing depuis la première publication, nous avons également continué à apprendre et à améliorer nos efforts d’IA responsable. Ce document sera mis à jour régulièrement pour communiquer nos processus et méthodes en constante évolution.   

Termes clés  

Copilot dans Bing est une expérience de recherche web améliorée par IA. Comme il s’exécute sur une nouvelle technologie puissante, nous commençons par définir certains termes clés.  

Modèles Machine Learning qui aident à trier les données dans des classes étiquetées ou des catégories d’informations. Dans Copilot dans Bing, nous utilisons des classifieurs pour aider à détecter le contenu potentiellement dangereux soumis par les utilisateurs ou généré par le système afin d’atténuer la génération de ce contenu et l’utilisation ou l’abus du système. 

Copilot dans Bing est ancré dans les résultats de la recherche web lorsque les utilisateurs recherchent des informations. Cela signifie que nous centrerons la réponse fournie à la requête ou à l’invite d’un utilisateur sur le contenu web de haut niveau, et que nous fournissons des liens vers des sites web afin que les utilisateurs puissent en savoir plus. Bing classe le contenu de la recherche web en fonction de caractéristiques fortement pondérées telles que la pertinence, la qualité et la crédibilité, et la fraîcheur. Nous décrivons ces concepts plus en détail dans Comment Bing fournit des résultats Recherche (consultez « Qualité et crédibilité » dans « Comment Bing classe Recherche résultats »).   

Nous considérons que les réponses ancrées sont des réponses de Copilot dans Bing dans lesquelles les instructions sont prises en charge par les informations contenues dans les sources d’entrée, telles que les résultats de recherche web de la requête ou de l’invite, la base de connaissances d’informations vérifiées par Bing et, pour l’expérience de conversation, l’historique conversationnel récent de la conversation. Les réponses non ancrées sont celles dans lesquelles une instruction n’est pas ancrée dans ces sources d’entrée.  

Dans ce contexte, les modèles de langage volumineux (LLM) sont des modèles IA qui sont entraînés sur de grandes quantités de données texte pour prédire des mots par séquences. Les llms sont capables d’effectuer diverses tâches, telles que la génération de texte, le résumé, la traduction, la classification, etc.  

Le metaprompt est un programme qui sert à guider le comportement du système. Certaines parties du métapropt permettent d’aligner le comportement du système sur les principes de Microsoft AI et les attentes des utilisateurs. Par exemple, le métaprompt peut inclure une ligne telle que « communiquer dans la langue de votre choix de l’utilisateur ».  

Méthode ou combinaison de méthodes conçues pour réduire les risques potentiels qui peuvent résulter de l’utilisation de fonctionnalités pilotées par l’IA dans Copilot dans Bing.  

Texte, voix, images et/ou autres requêtes activées qu’un utilisateur envoie à Bing en tant qu’entrée au modèle qui alimente les nouvelles expériences génératives basées sur l’IA dans Bing. Par exemple, un utilisateur peut entrer l’invite suivante :  

« Je planifie un voyage pour notre anniversaire en septembre. Quels sont les endroits où nous pouvons aller qui sont à moins de 3 heures de vol de Londres Heathrow ?”  

Texte qu’un utilisateur envoie à Bing à partir de la barre de recherche pour la recherche web. Dans ce document, nous faisons la distinction entre une requête (pour la recherche sur le web) et une invite (pour les expériences génératives pilotées par l’IA dans Bing). Par exemple, un utilisateur peut entrer la requête suivante pour effectuer une recherche sur le web :  

« destinations de voyage près de l’aéroport de Londres Heathrow »  

Techniques utilisées par les experts pour évaluer les limitations et les vulnérabilités d’un système et pour tester l’efficacité des atténuations planifiées. Les tests d’équipe rouge et les tests de contrainte sont utilisés pour identifier les risques potentiels et sont distincts de la mesure systématique des risques.   

Texte, image, graphiques, etc. que Copilot dans Bing génère en réponse à une invite. Les synonymes de « response » incluent « completion », « generation » et « answer ». Par exemple, Bing peut fournir la réponse suivante à l’invite que nous avons utilisée dans la définition de « prompt » ci-dessus :   

« Félicitations pour votre anniversaire ! Il existe de nombreux endroits où vous pouvez aller qui sont à moins de 3 heures de vol de Londres Heathrow. Selon une source, certaines des évasions du week-end dans les trois heures d’avion de Londres sont Bilbao, Copenhague, Reyk et Stockholm 1, 2. Une autre source suggère certains des meilleurs endroits pour aller en Europe en septembre sont Cracovie, Florence, et Lisbonne 3, 4. Vous pouvez également case activée les vols directs de Londres Heathrow à différentes destinations et voir ce qui vous attire 5. J’espère que vous avez un voyage merveilleux !”  

Utilisations prévues et nouvelles expériences d’IA  

Les utilisations de Copilot dans Bing sont destinées à connecter les utilisateurs avec des résultats de recherche pertinents, à passer en revue les résultats du web pour trouver et résumer les réponses que les utilisateurs recherchent, à aider les utilisateurs à affiner leurs recherches pour obtenir des réponses avec une expérience de conversation et à stimuler la créativité en aidant les utilisateurs à créer du contenu. Copilot dans les expériences d’IA générative de Bing ci-dessous prennent en charge l’objectif d’être un copilote basé sur l’IA pour le web.  

Résumé. Lorsque les utilisateurs envoient une requête de recherche sur Copilot dans Bing, le système Bing traite la requête, effectue une ou plusieurs recherches web et utilise les premiers résultats de la recherche web pour générer un résumé des informations à présenter aux utilisateurs. Ces résumés incluent des références permettant aux utilisateurs de voir et d’accéder facilement aux résultats de recherche utilisés pour faciliter la présentation du résumé. Les résumés peuvent apparaître sur le côté droit de la page des résultats de la recherche et dans l’expérience de conversation.  

Expérience de conversation. En plus du résumé, les utilisateurs peuvent discuter avec Copilot dans le système Bing via du texte, une image ou une entrée vocale, poser des questions de suivi pour clarifier les recherches et trouver de nouvelles informations, et envoyer des invites pour générer du contenu créatif. Les références sont également incluses dans l’expérience de conversation lorsque Copilot dans Bing résume les résultats de recherche dans la réponse.   

Génération de contenu créatif. Dans l’expérience de conversation et sur la page de recherche, les utilisateurs peuvent créer des poèmes, des blagues, des histoires, des images et d’autres contenus avec l’aide de Copilot dans Bing.  Les images sont créées par Designer (l’ancienne Créateur d'image Bing), et les utilisateurs peuvent accéder à la fonctionnalité via Designer page d’accueil ainsi que la page Copilot. 

Comment fonctionne Copilot dans Bing ?  

Avec Copilot dans Bing, nous avons développé une approche innovante pour intégrer les llms de pointe à la recherche web. Lorsqu’un utilisateur entre une invite dans Copilot dans Bing, l’invite, l’historique des conversations récentes, le métaprompt et les résultats de recherche principaux sont envoyés en tant qu’entrées au LLM. Le modèle génère une réponse à l’aide de l’invite de l’utilisateur et de l’historique des conversations récentes pour contextualiser la demande, le métapropt pour aligner les réponses sur les principes et les attentes de l’utilisateur de Microsoft AI, et les résultats de la recherche pour situer les réponses dans du contenu web existant et de haut niveau.   

Les réponses sont présentées aux utilisateurs dans plusieurs formats différents, tels que des liens traditionnels vers du contenu web, des résumés générés par l’IA, des images et des réponses de conversation. Les résumés et les réponses de conversation qui s’appuient sur les résultats de la recherche web incluent des références et une section « En savoir plus » sous les réponses, avec des liens vers les résultats de recherche qui ont été utilisés pour baser la réponse. Les utilisateurs peuvent cliquer sur ces liens pour en savoir plus sur une rubrique et les informations utilisées pour établir le résumé ou la réponse de conversation.    

Dans l’expérience Copilot, les utilisateurs peuvent effectuer des recherches web par conversation en ajoutant du contexte à leur invite et en interagissant avec les réponses système pour spécifier davantage leurs centres d’intérêt. Par exemple, un utilisateur peut poser des questions de suivi, demander des informations de clarification supplémentaires ou répondre au système de manière conversationnelle. Dans l’expérience de conversation, les utilisateurs peuvent également sélectionner une réponse à partir de suggestions pré-écrites, que nous appelons suggestions de conversation. Ces boutons apparaissent après chaque réponse de Copilot et fournissent des invites suggérées pour poursuivre la conversation dans l’expérience de conversation. Les suggestions de conversation apparaissent également avec le contenu résumé sur la page des résultats de la recherche comme point d’entrée pour l’expérience de conversation.  

Copilot dans Bing permet également à un utilisateur de créer des récits, des poèmes, des paroles de chansons et des images avec l’aide de Bing. Lorsque Copilot dans Bing détecte l’intention de l’utilisateur de générer du contenu créatif (par exemple, l’invite commence par « écrivez-moi un ... »), le système génère, dans la plupart des cas, du contenu réactif à l’invite de l’utilisateur. De même, lorsque Copilot dans Bing détecte l’intention de l’utilisateur de générer une image (par exemple, l’invite commence par « dessinez-moi un... »), le système génère, dans la plupart des cas, une image qui répond à l’invite de l’utilisateur. Dans Visual Recherche dans l’expérience de conversation, avec une image prise par l’appareil photo de l’utilisateur, chargée à partir de l’appareil de l’utilisateur ou liée à partir du web, les utilisateurs peuvent inviter Copilot dans Bing à comprendre le contexte, à interpréter et à répondre aux questions sur l’image.  Les utilisateurs peuvent également charger leurs fichiers sur Copilot pour les interpréter, les convertir, les traiter ou les calculer. Dans l’expérience Microsoft Designer à laquelle les utilisateurs peuvent accéder via Copilot dans Bing, les utilisateurs peuvent non seulement générer des images à l’aide d’invites, mais également les redimensionner ou les relooker, ou apporter des modifications telles que le flou de l’arrière-plan ou l’affichage des couleurs plus vives. 

Les utilisateurs disposant de comptes Microsoft (MSA) ont désormais également la possibilité de s’abonner à Copilot Pro qui offre une expérience améliorée, notamment des performances accélérées, une création d’images IA plus rapide et bientôt la possibilité de créer vos propres GPT Copilot. Copilot Pro est actuellement disponible dans des pays limités, et nous prévoyons de rendre Copilot Pro disponible dans d’autres marchés bientôt.

Dans l’expérience Copilot, les utilisateurs peuvent accéder aux GPT Copilot. Un GPT Copilot, comme Designer GPT, est une version personnalisée de Microsoft Copilot sur un sujet qui vous intéresse particulièrement, tel que la remise en forme, les voyages et la cuisine, qui peut aider à transformer des idées vagues ou générales en invites plus spécifiques avec des sorties, y compris des textes et des images. Dans Copilot, les utilisateurs peuvent voir les GPT Copilot disponibles, et les utilisateurs disposant de comptes Copilot Pro auront bientôt accès au Générateur DE GPT Copilot, une fonctionnalité qui permet aux utilisateurs de créer et de configurer un GPT Copilot personnalisé. Les atténuations de l’IA responsable mentionnées ci-dessus pour Copilot dans Bing s’appliquent aux GPT Copilot.

Pour en savoir plus sur le fonctionnement des gpT Copilot Pro et Copilot, visitez cette page.

Copilot dans Bing s’efforce de fournir des résultats de recherche variés et complets avec son engagement à accéder librement et librement à l’information. Dans le même temps, nos efforts de qualité de produit incluent le travail pour éviter de promouvoir par inadvertance du contenu potentiellement dangereux pour les utilisateurs. Pour plus d’informations sur la façon dont Bing classe le contenu, notamment sur la façon dont il définit la pertinence, ainsi que sur la qualité et la crédibilité d’une page web, consultez les « Instructions bing pour les webmestres ».   Pour plus d’informations sur les principes de modération du contenu bing, consultez « Comment Bing fournit les résultats de la recherche ».   

Dans l’expérience Copilot dans Windows, Copilot dans Bing peut travailler avec le système d’exploitation Windows pour fournir des compétences spécifiques à Windows, telles que la modification du thème ou de l’arrière-plan de l’utilisateur, et la modification de paramètres tels que l’audio, le Bluetooth et la mise en réseau. Ces expériences permettent à l’utilisateur de configurer ses paramètres et d’améliorer son expérience utilisateur à l’aide d’invites en langage naturel pour le LLM. Des fonctionnalités spécifiques à l’application peuvent également être fournies à partir de plug-ins d’application tiers. Celles-ci peuvent automatiser les tâches répétitives et améliorer l’efficacité de l’utilisateur. Étant donné que les llms peuvent parfois faire des erreurs, des invites de confirmation de l’utilisateur appropriées sont fournies afin que l’utilisateur soit l’arbitre final des modifications qui peuvent être apportées. 

Identification, mesure et atténuation des risques  

Comme d’autres technologies transformationnelles, l’exploitation des avantages de l’IA n’est pas sans risque, et une partie essentielle du programme d’IA responsable de Microsoft est conçue pour identifier les risques potentiels, mesurer leur propension à se produire et créer des atténuations pour y remédier. Guidés par nos principes d’IA et notre norme d’IA responsable, nous avons cherché à identifier, mesurer et atténuer les risques potentiels et l’utilisation abusive de Copilot dans Bing tout en garantissant les utilisations transformatrices et bénéfiques que la nouvelle expérience offre. Dans les sections ci-dessous, nous décrivons notre approche itérative pour identifier, mesurer et atténuer les risques potentiels.   

Au niveau du modèle, notre travail a commencé par des analyses exploratoires de GPT-4 à la fin de l’été 2022. Cela comprenait la réalisation de tests complets en équipe rouge en collaboration avec OpenAI. Ce test a été conçu pour évaluer le fonctionnement de la technologie la plus récente sans aucune protection supplémentaire appliquée. Notre intention spécifique à l’époque était de produire des réponses nuisibles, d’exposer des possibilités potentielles d’utilisation abusive, et d’identifier les capacités et les limitations. Nos apprentissages combinés sur OpenAI et Microsoft ont contribué à des avancées dans le développement de modèles et, pour nous chez Microsoft, ont permis de mieux comprendre les risques et ont contribué à des stratégies d’atténuation précoces pour Copilot dans Bing.  

En plus des tests d’équipe rouge au niveau du modèle, une équipe multidisciplinaire d’experts a effectué de nombreuses séries de tests d’équipe rouge au niveau de l’application sur Copilot dans Bing AI expériences avant de les rendre disponibles publiquement dans notre version préliminaire limitée. Ce processus nous a aidés à mieux comprendre comment le système pouvait être exploité par des acteurs adversaires et à améliorer nos mesures d’atténuation. Les testeurs de stress non contradictoires ont également largement évalué les nouvelles fonctionnalités Bing pour détecter les lacunes et les vulnérabilités. Après la publication, les nouvelles expériences d’IA dans Bing sont intégrées à l’infrastructure de mesure et de test de production existante de l’organization d’ingénierie Bing. Par exemple, des testeurs d’équipe rouge provenant de différentes régions et de différents milieux tentent de compromettre le système en continu et systématiquement, et leurs résultats sont utilisés pour développer les jeux de données que Bing utilise pour améliorer le système.  

Les tests d’équipe rouge et les tests de contrainte peuvent exposer des instances de risques spécifiques, mais en production, les utilisateurs auront des millions de types de conversations différents avec Copilot dans Bing. En outre, les conversations sont multitours et contextuelles, et l’identification du contenu nuisible au sein d’une conversation est une tâche complexe. Pour mieux comprendre et traiter le potentiel des risques dans Copilot dans Bing AI expériences, nous avons développé des métriques d’IA responsables supplémentaires spécifiques à ces nouvelles expériences d’IA pour mesurer les risques potentiels tels que les jailbreaks, le contenu nuisible et le contenu non basé. Nous avons également activé la mesure à grande échelle via des pipelines de mesure partiellement automatisés. Chaque fois que le produit change, que les atténuations existantes sont mises à jour ou que de nouvelles atténuations sont proposées, nous mettons à jour nos pipelines de mesure pour évaluer à la fois les performances du produit et les métriques d’IA responsable.  

À titre d’exemple, le pipeline de mesure partiellement automatisé mis à jour pour le contenu dangereux comprend deux innovations majeures : la simulation de conversation et l’annotation de conversation automatisée et vérifiée par l’homme. Tout d’abord, les experts en IA responsable ont créé des modèles pour capturer la structure et le contenu des conversations qui pourraient entraîner différents types de contenu nuisible. Ces modèles ont ensuite été donnés à un agent conversationnel qui a interagi en tant qu’utilisateur hypothétique avec Copilot dans Bing, générant des conversations simulées. Pour déterminer si ces conversations simulées contenaient du contenu nuisible, nous avons pris des instructions qui sont généralement utilisées par des linguistes experts pour étiqueter les données et les avons modifiées pour les utiliser par GPT-4 pour étiqueter les conversations à grande échelle, en affinant les instructions jusqu’à ce qu’il y ait un accord significatif entre les conversations étiquetées par modèle et les conversations étiquetées à l’homme. Enfin, nous avons utilisé les conversations étiquetées par modèle pour calculer une métrique d’IA responsable qui capture l’efficacité de Copilot dans Bing pour atténuer le contenu dangereux.   

Nos pipelines de mesure nous permettent de mesurer rapidement les risques potentiels à grande échelle. À mesure que nous identifions de nouveaux problèmes au cours de la période de préversion et des tests en cours de l’équipe rouge, nous continuons à développer les ensembles de mesures pour évaluer les risques supplémentaires.  

À mesure que nous avons identifié les risques potentiels et les mauvaises utilisations par le biais de processus tels que les tests d’équipe rouge et les tests de stress, et que nous les avons mesurés avec les approches innovantes décrites ci-dessus, nous avons développé des mesures d’atténuation supplémentaires à celles utilisées pour la recherche traditionnelle. Ci-dessous, nous décrivons certaines de ces atténuations. Nous continuerons à surveiller Copilot dans Bing AI expériences afin d’améliorer les performances et les atténuations des produits.  

Mise en production progressive, évaluation continue. Nous nous engageons à apprendre et à améliorer notre approche d’IA responsable en permanence à mesure que nos technologies et le comportement des utilisateurs évoluent. Notre stratégie de mise en production incrémentielle a été au cœur de la façon dont nous faisons passer notre technologie en toute sécurité des labos vers le monde, et nous nous engageons à mettre en place un processus délibéré et réfléchi pour garantir les avantages de Copilot dans Bing. La limitation du nombre de personnes ayant accès au cours de la période de préversion nous a permis de découvrir comment les utilisateurs utilisent Copilot dans Bing, y compris comment les utilisateurs peuvent l’utiliser à mauvais escient, afin que nous puissions essayer d’atténuer les problèmes émergents avant une version plus large. Par exemple, nous exigeons que les utilisateurs s’authentifient à l’aide de leur compte Microsoft avant d’accéder à la nouvelle expérience Bing complète. Les utilisateurs non authentifiés ne peuvent accéder qu’à une préversion limitée de l’expérience. Ces mesures découragent les abus et nous aident (si nécessaire) à prendre les mesures appropriées en réponse aux violations du Code de conduite.  Nous apportons quotidiennement des modifications à Copilot dans Bing pour améliorer les performances des produits, améliorer les atténuations existantes et implémenter de nouvelles atténuations en réponse à nos apprentissages pendant la période de préversion.  

Mise à la base dans les résultats de recherche. Comme indiqué ci-dessus, Copilot dans Bing est conçu pour fournir des réponses prises en charge par les informations contenues dans les résultats de recherche web lorsque les utilisateurs recherchent des informations. Par exemple, le système est fourni avec le texte des premiers résultats de recherche et des instructions via la métaprompt pour présenter sa réponse. Toutefois, en résumant le contenu du web, Copilot dans Bing peut inclure dans sa réponse des informations qui ne sont pas présentes dans ses sources d’entrée. En d’autres termes, il peut produire des résultats non creusés. Nos premières évaluations ont indiqué que les résultats non basés dans les conversations peuvent être plus fréquents pour certains types d’invites ou de sujets que d’autres, tels que la demande de calculs mathématiques, d’informations financières ou de marché (par exemple, les résultats de l’entreprise, les données sur les performances boursières) et des informations telles que des dates précises d’événements ou des prix spécifiques d’articles. Les utilisateurs doivent toujours faire preuve de prudence et utiliser leur meilleur jugement lors de l’affichage des résultats de recherche résumés, que ce soit sur la page des résultats de la recherche ou dans l’expérience de conversation. Nous avons pris plusieurs mesures pour atténuer le risque que les utilisateurs s’appuient sur du contenu généré non terreux dans les scénarios de synthèse et les expériences de conversation. Par exemple, dans Copilot dans Bing, les réponses basées sur les résultats de recherche incluent des références aux sites web sources pour permettre aux utilisateurs de vérifier la réponse et d’en savoir plus. Les utilisateurs reçoivent également une notification explicite indiquant qu’ils interagissent avec un système d’IA et sont invités à case activée le matériel source des résultats web pour les aider à utiliser leur meilleur jugement.  

Classifieurs basés sur l’IA et métaprompting pour atténuer les risques potentiels ou les mauvaises utilisations. L’utilisation de modules llms peut produire du contenu problématique qui peut entraîner des risques ou une mauvaise utilisation. Il peut s’agir, par exemple, d’une sortie liée à l’automutilation, à la violence, au contenu graphique, à la propriété intellectuelle, à des informations inexactes, à des propos haineux ou à des textes susceptibles d’être liés à des activités illégales. Les classifieurs et les métaprompting sont deux exemples d’atténuations qui ont été implémentées dans Copilot dans Bing pour aider à réduire le risque de ces types de contenu. Les classifieurs classent le texte pour marquer différents types de contenu potentiellement dangereux dans les requêtes de recherche, les invites de conversation ou les réponses générées. Bing utilise des classifieurs et des filtres de contenu basés sur l’IA, qui s’appliquent à tous les résultats de recherche et fonctionnalités pertinentes ; Nous avons conçu des classifieurs d’invite supplémentaires et des filtres de contenu spécifiquement pour traiter les risques potentiels soulevés par les fonctionnalités Copilot dans Bing. Les indicateurs entraînent des atténuations potentielles, telles que le fait de ne pas renvoyer le contenu généré à l’utilisateur, de détourner l’utilisateur vers une autre rubrique ou de rediriger l’utilisateur vers la recherche traditionnelle. La métapropting consiste à donner des instructions au modèle pour guider son comportement, notamment afin que le système se comporte conformément aux principes d’IA de Microsoft et aux attentes des utilisateurs. Par exemple, le métaprompt peut inclure une ligne telle que « communiquer dans la langue de votre choix de l’utilisateur ».   

Protection de la confidentialité dans Visual Recherche dans Copilot dans Bing. Lorsque les utilisateurs chargent une image dans le cadre de leur invite de conversation, Copilot dans Bing utilise la technologie de floutage du visage avant d’envoyer l’image au modèle IA. Le flou de visage est utilisé pour protéger la vie privée des personnes dans l’image. La technologie de floutage des visages s’appuie sur des indices de contexte pour déterminer où flouter et tentera de flouter tous les visages. Avec les visages flous, le modèle IA peut comparer l’image entrée à celles d’images disponibles publiquement sur Internet. Par conséquent, par exemple, Copilot dans Bing peut être en mesure d’identifier un basketteur célèbre à partir d’une photo de ce joueur sur un terrain de basket-ball en créant une représentation numérique qui reflète le numéro de maillot du joueur, la couleur du maillot, la présence d’un panier de basket, etc. Copilot dans Bing ne stocke pas de représentations numériques de personnes à partir d’images chargées et ne les partage pas avec des tiers. Copilot dans Bing utilise des représentations numériques des images que les utilisateurs chargent uniquement dans le but de répondre aux invites des utilisateurs, puis elles sont supprimées dans les 30 jours suivant la fin de la conversation.    

Si l’utilisateur demande à Copilot dans Bing des informations sur une image chargée, les réponses aux conversations peuvent refléter l’impact du flou du visage sur la capacité du modèle à fournir des informations sur l’image chargée. Par exemple, Copilot dans Bing peut décrire une personne comme ayant un visage flou.    

Limitation de la dérive conversationnelle. Au cours de la période de préversion, nous avons appris que les sessions de conversation très longues peuvent entraîner des réponses répétitives, inutiles ou incohérentes avec Copilot dans le ton prévu par Bing. Pour résoudre cette dérive conversationnelle, nous avons limité le nombre de tours (échanges contenant à la fois une question utilisateur et une réponse de Copilot dans Bing) par session de conversation. Nous continuons d’évaluer d’autres approches pour atténuer ce problème.  

Invite d’enrichissement. Dans certains cas, l’invite d’un utilisateur peut être ambiguë. Dans ce cas, Copilot dans Bing peut utiliser le LLM pour vous aider à générer plus de détails dans l’invite afin de s’assurer que les utilisateurs obtiennent la réponse qu’ils recherchent. Cet enrichissement rapide ne repose pas sur les connaissances de l’utilisateur ou de ses recherches antérieures, mais plutôt sur le modèle IA. Ces requêtes révisées sont visibles dans l’historique des conversations de l’utilisateur et, comme d’autres recherches, peuvent être supprimées à l’aide de contrôles dans le produit.  

Conception centrée sur l’utilisateur et interventions relatives à l’expérience utilisateur. La conception centrée sur l’utilisateur et les expériences utilisateur sont un aspect essentiel de l’approche de Microsoft en matière d’IA responsable. L’objectif est d’enraciner la conception du produit dans les besoins et les attentes des utilisateurs. À mesure que les utilisateurs interagissent avec Copilot dans Bing pour la première fois, nous proposons différents points de contact conçus pour les aider à comprendre les fonctionnalités du système, à leur révéler que Copilot dans Bing est optimisé par l’IA et à communiquer des limitations. L’expérience est conçue de cette façon pour aider les utilisateurs à tirer le meilleur parti de Copilot dans Bing et à réduire le risque de dépendance excessive. Les éléments de l’expérience aident également les utilisateurs à mieux comprendre Copilot dans Bing et leurs interactions avec celui-ci. Celles-ci incluent des suggestions de conversation spécifiques à l’IA responsable (par exemple, comment Bing utilise-t-il l’IA ? Pourquoi Copilot dans Bing ne répond-il pas sur certaines rubriques ?), les explications des limitations, les façons dont les utilisateurs peuvent en savoir plus sur le fonctionnement du système et signaler les commentaires, et les références facilement navigables qui apparaissent dans les réponses pour montrer aux utilisateurs les résultats et les pages dans lesquelles les réponses sont ancrées.  

Divulgation de l’IA. Copilot dans Bing fournit plusieurs points de contact pour la divulgation significative de l’IA, où les utilisateurs sont avertis qu’ils interagissent avec un système IA, ainsi que des opportunités d’en savoir plus sur Copilot dans Bing. Donner aux utilisateurs ces connaissances peut les aider à éviter de trop dépendre de l’IA et à en savoir plus sur les forces et les limitations du système.  

Provenance du média.Microsoft Designer a activé la fonctionnalité « Informations d’identification de contenu », qui utilise des méthodes de chiffrement pour marquer la source, ou « provenance », de toutes les images générées par l’IA créées sur Designer. La fonctionnalité de filigrane numérique invisible affiche la source, l’heure et la date de création d’origine, et ces informations ne peuvent pas être modifiées. La technologie utilise les normes définies par la Coalition for Content and Authentic (C2PA) pour ajouter une couche supplémentaire de confiance et de transparence pour les images générées par l’IA. Microsoft est co-fondateur de C2PA et a contribué avec la technologie de provenance de contenu numérique de base. 

Conditions d’utilisation et code de conduite. Cette ressource régit l’utilisation de Copilot dans Bing. Les utilisateurs doivent respecter les conditions d’utilisation et le code de conduite, qui, entre autres choses, les informe des utilisations autorisées et interdites et des conséquences de la violation des conditions. Les conditions d’utilisation fournissent également des informations supplémentaires pour les utilisateurs et servent de référence pratique pour les utilisateurs pour en savoir plus sur Copilot dans Bing.   

Opérations et réponse rapide. Nous utilisons également Copilot dans les processus opérationnels et de surveillance en cours de Bing pour traiter lorsque Copilot dans Bing reçoit des signaux ou reçoit un rapport, indiquant une utilisation ou une violation possible des conditions d’utilisation ou du code de conduite.  

Commentaires, surveillance et supervision. L’expérience Copilot dans Bing s’appuie sur des outils existants qui permettent aux utilisateurs d’envoyer des commentaires et de signaler des problèmes, qui sont examinés par les équipes des opérations de Microsoft. Les processus opérationnels de Bing ont également été étendus pour prendre en charge les fonctionnalités de Copilot dans l’expérience Bing, par exemple, en mettant à jour la page Signaler un problème pour inclure les nouveaux types de contenu générés par les utilisateurs à l’aide du modèle.   

Notre approche de l’identification, de la mesure et de l’atténuation des risques continuera d’évoluer à mesure que nous en apprenons davantage, et nous apportons déjà des améliorations en fonction des commentaires recueillis au cours de la période de préversion.     

Détection de contenu automatisée. Lorsque les utilisateurs chargent des images dans le cadre de leur invite de conversation, Copilot dans Bing déploie des outils pour détecter l’exploitation sexuelle des enfants et les images d’abus (CSEAI), notamment la technologie de correspondance de hachage PhotoDNA. Microsoft a développé PhotoDNA pour aider à trouver des doublons de CSEAI connus. Microsoft signale toutes les CSEAI apparentes au National Center for Missing and Exploited Children (NCMEC), comme l’exige la loi américaine. Lorsque les utilisateurs chargent des fichiers à analyser ou à traiter, Copilot déploie l’analyse automatisée pour détecter le contenu susceptible d’entraîner des risques ou une mauvaise utilisation, comme du texte pouvant être lié à des activités illégales ou à du code malveillant.

Protection de la confidentialité  

La croyance de longue date de Microsoft que la confidentialité est un droit humain fondamental a informé chaque étape du développement et du déploiement de Copilot dans l’expérience Bing de Microsoft. Nos engagements à protéger la confidentialité de tous les utilisateurs, y compris en fournissant aux individus la transparence et le contrôle de leurs données et en intégrant la confidentialité par conception par le biais de la minimisation des données et de la limitation des objectifs, sont fondamentaux pour Copilot dans Bing. À mesure que nous faisons évoluer notre approche de la fourniture du Copilot dans les expériences d’IA générative de Bing, nous allons continuellement explorer la meilleure façon de protéger la confidentialité. Ce document sera mis à jour au fur et à mesure. Pour plus d’informations sur la façon dont Microsoft protège la confidentialité de nos utilisateurs, consultez la Déclaration de confidentialité Microsoft.  

Dans l’expérience Copilot dans Windows, les compétences Windows peuvent, dans le cadre de leurs fonctionnalités, partager des informations utilisateur avec la conversation de conversation. Cela est soumis à l’approbation de l’utilisateur et les invites de l’interface utilisateur s’affichent pour confirmer l’intention de l’utilisateur avant que les informations utilisateur ne soient partagées avec la conversation de conversation.

Microsoft continue de prendre en compte les besoins des enfants et des jeunes dans le cadre de l’évaluation des risques des nouvelles fonctionnalités d’IA générative dans Copilot dans Bing. Tous les comptes enfants Microsoft qui identifient l’utilisateur comme étant âgé de moins de 13 ans ou spécifiés par les lois locales ne peuvent pas se connecter pour accéder à la nouvelle expérience Bing complète.   

Comme décrit ci-dessus, pour tous les utilisateurs, nous avons implémenté des mesures de protection qui atténuent le contenu potentiellement dangereux. Dans Copilot dans Bing, les résultats sont définis comme dans le mode Strict de Bing SafeSearch, qui offre le niveau de protection le plus élevé dans le main recherche Bing, empêchant ainsi les utilisateurs, y compris les utilisateurs adolescents, d’être exposés à du contenu potentiellement dangereux. En plus des informations que nous avons fournies dans ce document et dans notre FAQ sur les fonctionnalités de conversation, des informations supplémentaires sur le fonctionnement de Copilot dans Bing pour éviter de répondre avec du contenu offensant inattendu dans les résultats de recherche sont disponibles ici.  

Microsoft s’est engagé à ne pas fournir de publicité personnalisée basée sur le comportement en ligne aux enfants dont la date de naissance dans leur compte Microsoft les identifie comme étant âgés de moins de 18 ans. Cette protection importante s’étend aux publicités dans Copilot dans les fonctionnalités Bing. Les utilisateurs peuvent voir des publicités contextuelles basées sur la requête ou l’invite utilisée pour interagir avec Bing.  

Pour libérer le potentiel de transformation de l’IA générative, nous devons renforcer la confiance dans la technologie en permettant aux individus de comprendre comment leurs données sont utilisées et en leur fournissant des choix et des contrôles significatifs sur leurs données. Copilot dans Bing est conçu pour hiérarchiser l’agence humaine, en fournissant des informations sur le fonctionnement du produit ainsi que ses limitations, et en étendant nos choix et contrôles consommateurs robustes à Copilot dans les fonctionnalités Bing.   

La Déclaration de confidentialité de Microsoft fournit des informations sur nos pratiques de confidentialité transparentes pour protéger nos clients, et elle fournit des informations sur les contrôles qui permettent à nos utilisateurs d’afficher et de gérer leurs données personnelles. Pour vous assurer que les utilisateurs disposent des informations dont ils ont besoin lorsqu’ils interagissent avec les nouvelles fonctionnalités de conversation de Bing, les divulgations intégrées au produit informent les utilisateurs qu’ils souhaitent utiliser un produit IA, et nous fournissons des liens vers d’autres FAQ et des explications sur le fonctionnement de ces fonctionnalités. Microsoft continuera d’écouter les commentaires des utilisateurs et ajoutera des détails supplémentaires sur les fonctionnalités conversationnelles de Bing, le cas échéant, afin de prendre en charge la compréhension du fonctionnement du produit.   

Microsoft fournit également à ses utilisateurs des outils robustes pour exercer leurs droits sur leurs données personnelles. Pour les données collectées par Copilot dans Bing, notamment par le biais de requêtes et d’invites utilisateur, le tableau de bord de confidentialité Microsoft fournit aux utilisateurs authentifiés (connectés) des outils pour exercer leurs droits de personne concernée, notamment en offrant aux utilisateurs la possibilité d’afficher, d’exporter et de supprimer l’historique des conversations stocké. Microsoft continue de recevoir des commentaires sur la façon dont il souhaite gérer sa nouvelle expérience Bing, notamment via l’utilisation d’expériences de gestion des données en contexte.   

Copilot dans Bing honore également les demandes sous le droit européen à l’oubli, en suivant le processus que Microsoft a développé et affiné pour les fonctionnalités de recherche traditionnelles de Bing. Tous les utilisateurs peuvent signaler des préoccupations concernant le contenu et les réponses générés ici, et nos utilisateurs européens peuvent utiliser ce formulaire pour envoyer des demandes de blocage des résultats de recherche en Europe sous le droit à l’oubli.   

Copilot dans Bing respecte les choix de confidentialité des utilisateurs, y compris ceux qui ont été précédemment effectués dans Bing, tels que le consentement pour la collecte et l’utilisation des données demandées par le biais de bannières de cookies et de contrôles disponibles dans le tableau de bord de confidentialité Microsoft. Pour aider les utilisateurs à prendre des décisions éclairées, nous avons utilisé notre processus de révision interne pour examiner attentivement la façon dont les choix sont présentés aux utilisateurs. 

Outre les contrôles disponibles via le tableau de bord de confidentialité Microsoft, qui permettent aux utilisateurs d’afficher, d’exporter et de supprimer leur historique de recherche, y compris les composants de leur historique des conversations, les utilisateurs authentifiés qui ont activé la fonctionnalité d’historique des conversations dans le produit ont la possibilité d’afficher, d’accéder et de télécharger l’historique des conversations via des contrôles intégrés au produit. Les utilisateurs peuvent effacer des conversations spécifiques de l’historique des conversations ou désactiver entièrement la fonctionnalité d’historique des conversations à tout moment en visitant la page Paramètres Bing. Les utilisateurs peuvent également choisir d’autoriser la personnalisation pour accéder à une expérience plus personnalisée avec des réponses personnalisées. Les utilisateurs peuvent accepter et refuser la personnalisation à tout moment dans les paramètres de conversation de la page Paramètres Bing.  L’effacement de conversations spécifiques de l’historique des conversations empêche leur utilisation pour la personnalisation.  
 
Plus d’informations sur l’historique des conversations et la personnalisation sont fournies aux utilisateurs dans Copilot dans faq Bing. 

Copilot dans Bing a été conçu avec la confidentialité à l’esprit, de sorte que les données personnelles sont collectées et utilisées uniquement en fonction des besoins et ne sont pas conservées plus longtemps que nécessaire. Comme mentionné ci-dessus, la fonctionnalité Visual Recherche dans Copilot dans Bing déploie un mécanisme qui flout les visages dans les images au moment du chargement par les utilisateurs, afin que les images faciales ne soient pas traitées ou stockées ultérieurement. Vous trouverez plus d’informations sur les données personnelles collectées par Bing, leur utilisation et leur mode de stockage et de suppression dans la Déclaration de confidentialité Microsoft, qui fournit également des informations sur les nouvelles fonctionnalités de conversation bing.   

Copilot dans Bing a des stratégies de conservation et de suppression des données pour garantir que les données personnelles collectées via les fonctionnalités de conversation bing sont conservées uniquement aussi longtemps que nécessaire.   

Nous continuerons d’apprendre et de faire évoluer notre approche de la fourniture de Copilot dans Bing, et comme nous le faisons, nous continuerons à travailler dans toutes les disciplines pour aligner notre innovation ia avec les valeurs humaines et les droits fondamentaux, y compris la protection des jeunes utilisateurs et de la vie privée.   

Copilot avec protection des données commerciales 

Copilot avec protection des données commerciales, anciennement appelé Bing Chat Enterprise (« BCE »), a été publié par Microsoft en préversion publique gratuite en juillet 2023 en tant que module complémentaire gratuit pour certains clients M365. Copilot avec protection des données commerciales est une expérience de recherche web améliorée par IA pour les utilisateurs finaux d’entreprise. 

Comme avec Copilot dans Bing, lorsqu’un utilisateur final Copilot avec protection des données commerciales entre une invite dans l’interface, l’invite, la conversation immédiate, les résultats de recherche principaux et le métaprompt sont envoyés en tant qu’entrées au LLM. Le modèle génère une réponse à l’aide de l’invite et de l’historique des conversations immédiates pour contextualiser la demande, du metaprompt pour aligner les réponses sur les principes de Microsoft AI et les attentes des utilisateurs, et des résultats de la recherche pour baser les réponses dans du contenu web existant et de haut niveau. Cela fonctionne de la même façon que Copilot dans Bing, comme décrit ci-dessus dans ce document, à l’exception du fait que Copilot avec protection des données commerciales s’appuie uniquement sur l’historique immédiat des conversations (et non sur l’historique des conversations récentes) en raison du fait que l’historique des conversations stocké n’est pas une fonctionnalité actuellement prise en charge. Designer et Visual Recherche sont désormais disponibles dans cette version. 

Comme d’autres technologies transformationnelles, l’exploitation des avantages de l’IA n’est pas sans risque, et une partie essentielle du programme d’IA responsable de Microsoft est conçue pour identifier les risques potentiels, mesurer leur propension à se produire et créer des atténuations pour y remédier. Là encore, la description ci-dessus des efforts de Microsoft pour identifier, mesurer et atténuer les risques potentiels pour Copilot dans Bing s’applique également à cette version, avec quelques précisions sur les atténuations décrites ci-dessous : 

Mise en production progressive, évaluation continue. Tout comme avec Copilot Bing, pour Copilot avec protection des données commerciales, nous avons également adopté une approche de mise en production incrémentielle. Le 18 juillet 2023, Copilot avec protection des données commerciales est devenu disponible en préversion gratuite pour les clients d’entreprise éligibles disposant de comptes M365 spécifiques à activer pour leurs utilisateurs finaux d’entreprise. Trente (30) jours après la notification des clients d’entreprise éligibles, Copilot avec la protection des données commerciales est devenu « par défaut » pour ces mêmes clients. Copilot avec la protection des données commerciales est également disponible depuis pour des comptes M365 enseignants spécifiques. Copilot avec protection des données commerciales a été mis à la disposition générale de certains clients d’entreprise le 1er décembre 2023. À l’avenir, nous prévoyons d’étendre l’accès à Copilot avec la protection des données commerciales à plus Microsoft Entra ID utilisateurs.

Conditions d’utilisation et code de conduite. Les utilisateurs finaux de Copilot avec protection des données commerciales doivent respecter les conditions d’utilisation de l’utilisateur final. Les présentes Conditions d’utilisation informent les utilisateurs finaux des utilisations autorisées et interdites et des conséquences de la violation des conditions.  

Opérations et réponse rapide. Nous utilisons également Copilot dans les processus opérationnels et de surveillance en cours de Bing pour traiter lorsque Copilot avec la protection des données commerciales reçoit des signaux ou reçoit un rapport, indiquant une utilisation ou une violation possible des conditions d’utilisation de l’utilisateur final

Commentaires, surveillance et supervision. Copilot avec protection des données commerciales utilise les mêmes outils que Copilot dans Bing pour permettre aux utilisateurs d’envoyer des commentaires et de signaler des problèmes, qui sont examinés par les équipes des opérations de Microsoft. Les processus opérationnels de Copilot dans Bing ont également été étendus pour prendre en charge les fonctionnalités de Copilot avec des expériences de protection des données commerciales, par exemple en mettant à jour la page Signaler un problème pour inclure les nouveaux types de contenu générés par les utilisateurs à l’aide du modèle.  

Pour s’assurer que les utilisateurs finaux disposent des informations dont ils ont besoin lorsqu’ils interagissent avec Copilot avec la protection des données commerciales, la documentation produit est disponible en bas de ce document, y compris les pages FAQ et En savoir plus. 

Les invites et réponses générées par les utilisateurs finaux dans Copilot avec protection des données commerciales sont traitées et stockées conformément aux normes de gestion des données d’entreprise. L’offre Copilot avec protection des données commerciales est actuellement disponible uniquement pour les clients d’entreprise et leurs utilisateurs finaux adultes authentifiés. Par conséquent, nous ne prévoyons pas que les enfants ou les jeunes seront les utilisateurs finaux de Copilot avec la protection des données commerciales pour l’instant. En outre, Copilot avec la protection des données commerciales ne fournit aucune publicité ciblée comportementalement aux utilisateurs finaux. Au lieu de cela, toutes les annonces affichées sont uniquement des publicités contextuellement pertinentes.  

En savoir plus

Ce document fait partie d’un effort plus large de Microsoft visant à mettre en pratique nos principes d’IA. Pour en savoir plus, consultez :

Approche de Microsoft pour une IA responsable

Norme d’IA responsable de Microsoft

Ressources d’IA responsable de Microsoft  

Cours Microsoft Azure Learning sur l’IA responsable  

À propos de ce document  

© 2023 Microsoft. Tous droits réservés. Ce document est fourni « tel quelle » et à titre d’information uniquement. Les informations et vues exprimées dans ce document, y compris l’URL et d’autres références de site Web Internet, peuvent changer sans préavis. Vous assumez tous les risques liés à son utilisation. Certains exemples sont à titre d’illustration uniquement et sont fictifs. Aucune association réelle n’est prévue ou déduite.  

Besoin d’aide ?

Vous voulez plus d’options ?

Explorez les avantages de l’abonnement, parcourez les cours de formation, découvrez comment sécuriser votre appareil, etc.

Les communautés vous permettent de poser des questions et d'y répondre, de donner vos commentaires et de bénéficier de l'avis d'experts aux connaissances approfondies.

Ces informations vous ont-elles été utiles ?

Dans quelle mesure êtes-vous satisfait(e) de la qualité de la langue ?
Qu’est-ce qui a affecté votre expérience ?
En cliquant sur Envoyer, vos commentaires seront utilisés pour améliorer les produits et services de Microsoft. Votre administrateur informatique sera en mesure de collecter ces données. Déclaration de confidentialité.

Nous vous remercions de vos commentaires.

×