Dernière mise à jour : 22 octobre 2025

Qu’est-ce qu’une note de transparence ?

Un système d’IA comprend non seulement la technologie, mais également les personnes qui l’utiliseront, les personnes qui seront affectées par elle et l’environnement dans lequel il est déployé. Les notes de transparence de Microsoft sont destinées à vous aider à comprendre le fonctionnement de la technologie d’IA derrière Copilot, les choix que nous avons faits qui influencent les performances et le comportement du système, et l’importance de penser à l’ensemble du système, afin que les utilisateurs de Copilot puissent prendre le contrôle de leurs propres expériences et comprendre les étapes que nous prenons pour fournir un produit sûr et sécurisé.

Les notes de transparence de Microsoft font partie d’un effort plus large de Microsoft visant à mettre en pratique nos principes d’IA. Pour en savoir plus, consultez les principes de Microsoft AI

Les principes de base de Microsoft Copilot

Introduction

Copilot est une expérience basée sur l’IA qui permet de fournir aux utilisateurs les informations qu’ils recherchent tout en étant prêts à aider les utilisateurs à répondre à un large éventail de questions, quelle que soit la situation ou le sujet. Le Copilot actualisé va au-delà de répondre aux requêtes de récupération d’informations de base et se concentre sur la génération de contenu pour offrir un support plus proactif aux utilisateurs lors de l’exécution des tâches. Nous comprenons de plus en plus comment l’IA a le potentiel d’aider les gens à apprendre, à découvrir et à être plus créatifs, ce qui nous a obligés à créer un autre type de produit. La nouvelle expérience Copilot cherche à devenir un nouveau type d’expérience ouvert et dynamique pour mieux répondre aux besoins des utilisateurs d’une manière plus intuitive.

Chez Microsoft, nous prenons au sérieux notre engagement en faveur d'une IA responsable. L’expérience Copilot mise à jour a été développée conformément aux principes d’IA de Microsoft, à l’Standard d’IA responsable de Microsoft et en partenariat avec des experts en IA responsable au sein de l’entreprise, notamment Le Bureau de l’IA responsable de Microsoft, nos équipes d’ingénierie, Microsoft Research et Aether. Vous pouvez en savoir plus sur l’IA responsable chez Microsoft ici.  

Dans ce document, nous décrivons notre approche de l’IA responsable pour Copilot. Avant la publication, nous avons tiré parti des méthodes de pointe de Microsoft pour mapper, mesurer et gérer les risques potentiels et les mauvaises utilisations du système et garantir ses avantages pour les utilisateurs. Au fur et à mesure que nous continuons à faire évoluer Copilot, nous avons également continué d’apprendre et d’améliorer nos efforts d’IA responsable. Ce document sera mis à jour régulièrement pour communiquer nos processus et méthodes en constante évolution.  

Termes clés

Classificateurs    Modèles Machine Learning qui aident à trier les données dans des classes étiquetées ou des catégories d’informations. Dans l’expérience Copilot mise à jour, nous utilisons des classifieurs pour aider à détecter le contenu potentiellement dangereux soumis par les utilisateurs ou généré par le système afin d’atténuer la génération de ce contenu et l’utilisation ou l’abus du système. 

Terre    Pour certaines conversations où les utilisateurs recherchent des informations, Copilot est ancré dans les résultats de la recherche web. Cela signifie que Copilot centre sa réponse sur le contenu web de haut niveau et fournit des citations hypertexte après les réponses de texte générées. Notez qu’à ce stade, les invites de l’utilisateur en mode vocal ne déclenchent pas de recherche sur le web. Par conséquent, aucune réponse n’inclut des citations.

Modèles de langage volumineux (LLMs)    Dans ce contexte, les modèles de langage volumineux (LLM) sont des modèles IA qui sont entraînés sur de grandes quantités de données texte pour prédire des mots par séquences. Les llMs peuvent effectuer diverses tâches, telles que la génération de texte, le résumé, la traduction, la classification, etc.

Atténuation    Méthode ou combinaison de méthodes conçues pour réduire les risques potentiels qui peuvent résulter de l’utilisation des fonctionnalités d’IA dans Copilot.

Modèles multimodaux (MMM)    Les modèles multimodaux (MMM) sont des modèles IA qui sont entraînés sur différents types de données, tels que du texte, des images ou de l’audio. Ces modèles peuvent effectuer diverses tâches, telles que l’écriture de texte, la description d’images, la reconnaissance vocale et la recherche d’informations sur différents types de données.

Requêtes    Entrées sous forme de texte, d’images et/ou d’audio qu’un utilisateur envoie à Copilot pour interagir avec les fonctionnalités d’IA dans Copilot.

Association rouge    Techniques utilisées par les experts pour évaluer les limitations et les vulnérabilités d’un système et pour tester l’efficacité des atténuations planifiées. Les tests en équipe rouge incluent des testeurs qui adoptent des personnages à la fois bénins et contradictoires pour identifier les risques potentiels et sont distincts de la mesure systématique des risques.

Réponses    Texte, images ou audio que Copilot génère en réponse à une invite ou dans le cadre de l’aller-retour avec l’utilisateur. Les synonymes de « response » incluent « completion », « generation » et « answer ».

Petits modèles de langage (SPM)    Dans ce contexte, les modèles de langage de petite taille sont des modèles IA qui sont formés sur des quantités de données plus petites et plus ciblées que les modèles de langage volumineux. Malgré leur taille plus petite, les SLO peuvent effectuer diverses tâches, telles que la génération de texte, le résumé, la traduction et la classification. Bien qu’elles ne correspondent pas aux fonctionnalités étendues des llMs, les SVM sont souvent plus efficaces en matière de ressources et peuvent être très efficaces pour des applications spécifiques et ciblées. 

Message système    Le message système (parfois appelé « métaprompt ») est un programme qui sert à guider le comportement du système. Certaines parties du message système permettent d’aligner le comportement du système sur les principes de Microsoft AI et les attentes des utilisateurs. Par exemple, un message système peut inclure une ligne telle que « ne pas fournir d’informations ou créer du contenu susceptible de causer un préjudice physique, émotionnel ou financier ». 

Fonctionnalités

Comportement du système

Avec Copilot, nous avons développé une approche innovante pour offrir aux utilisateurs une expérience d’IA plus personnalisée pour une expérience attrayante qui peut aider les utilisateurs à effectuer diverses tâches. Cette approche innovante tire parti d’une variété de technologies avancées, telles que le langage et les modèles multimodaux de Microsoft, OpenAI et d’autres développeurs de modèles. Nous avons travaillé sur l’implémentation de techniques de sécurité pour les modèles sous-jacents de la nouvelle expérience Copilot avant la publication publique afin de développer un ensemble personnalisé de fonctionnalités et de comportements qui fournissent une expérience Copilot améliorée. Dans le Copilot mis à jour, les utilisateurs peuvent envoyer des invites en texte ou en voix en langage naturel. Les réponses sont présentées aux utilisateurs dans plusieurs formats différents, tels que des réponses de conversation sous forme de texte (avec des liens traditionnels vers du contenu web si nécessaire) et des images (si une demande d’image a été effectuée dans le cadre de l’invite). Si les utilisateurs envoient des invites en langage naturel dans le mode Copilot Voice, ils recevront des réponses audio. 

Lorsqu’un utilisateur entre une invite dans Copilot, l’invite, l’historique des conversations et le message système sont envoyés via plusieurs classifieurs d’entrée pour filtrer le contenu nuisible ou inapproprié. Il s’agit d’une première étape cruciale pour aider à améliorer les performances du modèle et à atténuer les situations dans lesquelles les utilisateurs peuvent tenter d’inviter le modèle d’une manière qui pourrait être dangereuse. Une fois que l’invite passe par les classifieurs d’entrée, elle est envoyée à un SLM pour déterminer si la requête nécessite des données de base à partir du web et quel modèle de langage doit répondre à la requête. Tous les modèles génèrent une réponse à l’aide de l’invite de l’utilisateur et de l’historique des conversations récentes pour contextualiser la demande, le message système pour aligner les réponses sur les principes de Microsoft AI et les attentes des utilisateurs, et, le cas échéant, aligner les réponses avec les résultats de la recherche pour mettre en place des réponses dans du contenu web existant et de haut niveau.  

Les réponses sont présentées aux utilisateurs dans plusieurs formats différents, tels que les réponses de conversation sous forme de texte, les liens traditionnels vers le contenu web, les images et les réponses audio. Lorsque les réponses sont fournies sous forme de texte et que les réponses sont ancrées dans des données provenant du web, la sortie contient des citations avec lien hypertexte répertoriées sous le texte afin que les utilisateurs puissent accéder aux sites web qui ont été utilisés pour baser la réponse et en savoir plus sur le sujet à partir de là. Copilot peut également exécuter du code pour effectuer des calculs complexes et générer des graphiques. Copilot peut stocker des faits spécifiques que les utilisateurs lui demandent de mémoriser, ce qui lui permet de générer des réponses et des suggestions plus pertinentes en fonction de ce contexte. Copilot peut également supprimer des faits enregistrés lorsque les utilisateurs demandent de les oublier explicitement.

Copilot aide également les utilisateurs à créer de nouvelles histoires, poèmes, paroles de chansons et images. Lorsque Copilot détecte l’intention de l’utilisateur de générer du contenu créatif (par exemple, une invite utilisateur qui commence par « écrivez-moi un ... »), le système génère, dans la plupart des cas, du contenu réactif à l’invite de l’utilisateur. De même, lorsque Copilot détecte l’intention de l’utilisateur de générer une image (par exemple, une invite utilisateur commençant par « dessinez-moi un ... »), Copilot génère, dans la plupart des cas, une image qui répond à l’invite de l’utilisateur. Lorsque Copilot détecte l’intention de l’utilisateur de modifier une image chargée (par exemple, une invite utilisateur commençant par « ajouter un ... »), Copilot modifie, dans la plupart des cas, une image qui répond à l’invite de l’utilisateur. Copilot peut ne pas répondre avec du contenu créatif lorsque l’invite de l’utilisateur contient certains termes susceptibles d’entraîner un contenu problématique.

Les utilisateurs disposant de comptes Microsoft (MSA) ont désormais également la possibilité de s’abonner à Copilot Pro, ce qui offre une expérience améliorée, notamment des performances accélérées, l’utilisation des fonctionnalités Copilot Voice pendant de plus longues périodes et, dans certains cas, l’accès à de nouvelles fonctionnalités expérimentales. Copilot Pro est actuellement disponible dans un nombre limité de pays, et nous prévoyons bientôt de mettre Copilot Pro à disposition dans d’autres marchés.

Comportement de sécurité prévu

Notre objectif pour Copilot est d’être utile aux utilisateurs. En tirant parti des meilleures pratiques d’autres produits et services d’IA générative Microsoft, nous visons à limiter Copilot à générer du contenu problématique et à augmenter la probabilité d’une expérience utilisateur sûre et positive. Bien que nous ayons pris des mesures pour atténuer les risques, les modèles IA génératifs comme ceux derrière Copilot sont probabilistes et peuvent faire des erreurs, ce qui signifie que les atténuations peuvent parfois échouer à bloquer les invites utilisateur nuisibles ou les réponses générées par l’IA. Si vous rencontrez du contenu dangereux ou inattendu lors de l’utilisation de Copilot, faites-le nous savoir en nous fournissant des commentaires afin que nous puissions continuer à améliorer l’expérience.

Cas d’usage

Utilisations prévues

Copilot est destiné à aider les utilisateurs à répondre à un large éventail de questions, quelle que soit la situation ou le sujet. Les utilisateurs peuvent interagir avec Copilot à l’aide d’entrées texte, d’image et audio, où les interactions sont destinées à ressembler à des conversations naturelles avec un système IA. En outre, si les utilisateurs interagissent avec Copilot via le texte pour rechercher des informations spécifiques sur des sujets où Copilot peut nécessiter plus d’informations pour produire une réponse plus précise, l’expérience est destinée à connecter les utilisateurs avec des résultats de recherche pertinents, à passer en revue les résultats du web et à résumer les informations que les utilisateurs recherchent. Dans Copilot, les utilisateurs peuvent : 

  • Résumez les informations en temps réel lors d’une conversation par le biais d’un texte.    Lorsque les utilisateurs interagissent avec Copilot via du texte, le système effectue des recherches web s’il a besoin de plus d’informations et utilise les premiers résultats de la recherche web pour générer un résumé des informations à présenter aux utilisateurs. Ces résumés incluent des citations à des pages web pour aider les utilisateurs à voir et à accéder facilement aux sources des résultats de recherche qui ont permis de baser le résumé de Copilot. Les utilisateurs peuvent cliquer sur ces liens pour accéder directement à la source s’ils souhaitent en savoir plus.

  • Discutez avec un système IA à l’aide de texte.    Les utilisateurs peuvent discuter avec Copilot par sms et poser des questions de suivi pour trouver de nouvelles informations et bénéficier d’un support sur un large éventail de sujets.

  • Interface avec l’IA à l’aide de la voix et des apparences.    Copilot peut non seulement recevoir une entrée audio, mais également produire une sortie audio dans l’une des quatre voix sélectionnées par les utilisateurs, et présenter une apparence visuelle pour enrichir l’interaction. Les fonctionnalités audio-audio et d’apparence permettent aux utilisateurs d’interagir avec Copilot de manière plus naturelle et plus fluide.

  • Recevoir du contenu d’actualités digestible.    Les utilisateurs peuvent utiliser Copilot pour recevoir un résumé des actualités, de la météo et d’autres mises à jour basées sur des sujets sélectionnés via la fonctionnalité Quotidien Copilot et écouter ces briefings dans un format de type podcast. Cette fonctionnalité extrait le contenu de sources autorisées qui ont des contrats avec Microsoft.

  • Obtenez de l’aide pour générer de nouvelles idées.    Chaque fois que les utilisateurs interagissent avec l’expérience Copilot, ils voient un ensemble de cartes sur lesquelles ils peuvent cliquer pour commencer à discuter avec Copilot sur des sujets utiles et intéressants. Si les utilisateurs ont interagi avec d’autres services grand public Microsoft, les cartes sont personnalisées, conformément à nos politiques de confidentialité. Au fil du temps, les cartes dans Copilot peuvent être personnalisées en fonction de l’historique de conversation d’un utilisateur. Les utilisateurs peuvent refuser la personnalisation à tout moment dans les paramètres.

  • Générez du contenu créatif.    Lors d’une conversation avec Copilot, les utilisateurs peuvent créer des poèmes, des blagues, des histoires, des images et d’autres contenus avec l’aide de l’expérience Copilot. Copilot peut également modifier les images chargées par les utilisateurs si demandé.

  • Effectuer des tâches sur Android.Les utilisateurs peuvent interagir avec Copilot via la plateforme Android via la voix pour effectuer certaines tâches. Ces tâches sont la définition de minuteurs et d’alarmes, la réalisation d’appels téléphoniques, l’envoi de SMS et la commande d’un Uber. Les utilisateurs doivent confirmer l’appel téléphonique, le sms et la commande Uber avant que les tâches soient terminées.

  • Aider à la recherche.  Copilot peut effectuer des tâches de recherche en exposant des ressources détaillées, en offrant des répartitions détaillées des sujets et en établissant des liens vers des sources pour aider les utilisateurs à aller au-delà des réponses rapides pour des requêtes plus complexes. Copilot peut générer de manière proactive des suggestions de recherche personnalisées pour les utilisateurs en fonction d’éléments tels que les requêtes de recherche passées et la mémoire Copilot. Les utilisateurs peuvent refuser la personnalisation ou les notifications à tout moment dans les paramètres.

  • Explorez le monde avec Vision Copilot. Copilot peut afficher votre flux d’écran ou de caméra mobile et utiliser sa voix pour répondre aux questions et interagir avec vous. Copilot peut instantanément analyser, analyser et offrir des insights et des suggestions en temps réel pour vous aider à travailler, parcourir ou explorer le monde. Vision Copilot est disponible sur Edge, Windows, iOS et Android.

  • Récupération d’informations avec les connecteurs.Avec votre consentement, Copilot peut rechercher et interagir avec vos fichiers cloud à l’aide du langage naturel. Copilot peut récupérer des e-mails, rechercher des contacts et case activée rendez-vous de calendrier à partir de comptes Microsoft Outlook et Google Gmail. 

  • Collaborez avec des groupes Copilot. Sur invitation, vous pouvez rejoindre ou créer des conversations de groupe avec Copilot pour collaborer sur des projets et des idées communs.

Considérations relatives au choix d’autres cas d’usage

Nous encourageons les utilisateurs à passer en revue tout le contenu avant de prendre des décisions ou d’agir en fonction des réponses de Copilot, car l’IA peut faire des erreurs. En outre, il existe certains scénarios que nous vous recommandons d’éviter ou qui vont à l’encontre de nos conditions d’utilisation. Par exemple, Microsoft n’autorise pas l’utilisation de Copilot dans le cadre d’activités illégales ou à des fins destinées à promouvoir des activités illégales.  

Limites

Les modèles de langage, d’image et d’audio sous-plan de l’expérience Copilot peuvent inclure des données d’entraînement qui peuvent refléter des préjugés sociétaux, qui peuvent à leur tour amener Copilot à se comporter d’une manière perçue comme injuste, non fiable ou offensante. Malgré notre entraînement intensif du modèle et le réglage de la sécurité, ainsi que l’implémentation des contrôles IA responsables et des systèmes de sécurité que nous placeons sur les données d’entraînement, les invites utilisateur et les sorties de modèle, les services pilotés par l’IA sont faillibles et probabilistes. Il est donc difficile de bloquer complètement tout contenu inapproprié, ce qui entraîne des risques de biais potentiels, de stéréotypes, d’infondation ou d’autres types de dommages qui pourraient apparaître dans le contenu généré par l’IA. Certaines des façons dont ces limitations peuvent se manifester dans l’expérience Copilot sont répertoriées ici. 

  • Stéréotypes : l’expérience Copilot pourrait potentiellement renforcer les stéréotypes. Par exemple, lors de la traduction de « C’est une infirmière » et de « Elle est médecin » dans une langue non genrée comme le turc, puis en anglais, Copilot peut donner par inadvertance les résultats stéréotypés (et incorrects) de « Elle est infirmière » et « Il est médecin ». Un autre exemple est que lors de la génération d’une image basée sur l’invite « Enfants sans père », le système peut générer des images d’enfants d’une seule race ou ethnicité, renforçant ainsi les stéréotypes nuisibles qui pourraient exister dans les images accessibles au public utilisées pour entraîner les modèles sous-jacents. Copilot peut également renforcer les stéréotypes basés sur le contenu de l’image d’entrée de l’utilisateur en s’appuyant sur des composants de l’image et en faisant des hypothèses qui peuvent ne pas être vraies. Nous avons implémenté des mesures d’atténuation pour réduire le risque de contenu contenant des stéréotypes offensants, notamment des classifieurs d’entrée et de sortie, des modèles affinés et des messages système.

  • Surreprésentation et sous-représentation : Copilot pourrait éventuellement surreprésenter ou sous-représenter des groupes de personnes, ou même ne pas les représenter du tout, dans ses réponses. Par exemple, si des invites de texte contenant le mot « gay » sont détectées comme potentiellement dangereuses ou offensantes, cela peut entraîner la sous-représentation des générations légitimes au sujet de la communauté LGBTIA+. En plus d’inclure des classifieurs d’entrée et de sortie, des modèles affinés et des messages système, nous utilisons l’enrichissement rapide dans Designer comme l’une des nombreuses atténuations pour réduire le risque de contenu qui sur-représente ou sous-représente des groupes de personnes.

  • Contenu inapproprié ou offensant : l’expérience Copilot peut potentiellement produire d’autres types de contenu inapproprié ou offensant. Par exemple, la possibilité de générer du contenu dans une même modalité (par exemple, audio) qui est inapproprié dans le contexte de son invite ou lorsqu’il est comparé à la même sortie dans une autre modalité (par exemple, du texte). D’autres exemples incluent des images générées par l’IA qui contiennent des artefacts potentiellement dangereux tels que des symboles de haine, du contenu qui se rapporte à des sujets contestés, controversés ou idéologiquement polarisants, et du contenu sexuellement chargé qui échappe aux filtres de contenu sexuel. Nous avons mis en place des mesures d’atténuation pour réduire le risque de générations qui contiennent du contenu inapproprié ou offensant, comme des classifieurs d’entrée et de sortie, des modèles affinés et des messages système.

  • Fiabilité des informations : Alors que Copilot vise à répondre avec des sources fiables si nécessaire, l’IA peut faire des erreurs. Il peut potentiellement générer du contenu absurde ou fabriquer du contenu qui peut sembler raisonnable, mais qui est factuelment inexact. Même lorsque vous dessinez des réponses à partir de données web de haute autorité, les réponses peuvent fausser ce contenu d’une manière qui peut ne pas être complètement exacte ou fiable. Nous rappelons aux utilisateurs par le biais de l’interface utilisateur et dans une documentation comme celle-ci que Copilot peut faire des erreurs. Nous continuons également d’informer les utilisateurs sur les limitations de l’IA, par exemple en les encourageant à double case activée faits avant de prendre des décisions ou d’agir en fonction des réponses de Copilot. Lorsque les utilisateurs interagissent avec Copilot via du texte, celui-ci tente de se baser sur des données web de haute qualité afin de réduire le risque que les générations ne soient pas ancrées.

  • Performances multilingues : les performances peuvent varier d’une langue à l’autre, l’anglais étant le plus performant au moment de la publication du Copilot mis à jour. L’amélioration des performances entre les langues est un domaine d’investissement clé, et les modèles récents ont permis d’améliorer les performances.

  • Limitations audio : les modèles audio peuvent introduire d’autres limitations. De manière générale, la qualité acoustique de l’entrée vocale, du bruit non vocal, du vocabulaire, des accents et des erreurs d’insertion peut également affecter si Copilot traite et répond à l’entrée audio d’un utilisateur de manière satisfaisante. En outre, étant donné que les invites de l’utilisateur lors de l’utilisation de Copilot Voice ne déclenchent pas de recherches web, Copilot peut ne pas être en mesure de répondre aux événements actuels en mode vocal.

  • Dépendance vis-à-vis de la connectivité Internet : l’expérience Copilot mise à jour s’appuie sur la connectivité Internet pour fonctionner. Les interruptions de connectivité peuvent avoir un impact sur la disponibilité et les performances du service.

Performances du système

Dans de nombreux systèmes IA, les performances sont souvent définies en fonction de la précision (c’est-à-dire la fréquence à laquelle le système IA offre une prédiction ou une sortie correcte). Avec Copilot, nous nous concentrons sur Copilot en tant que assistant basé sur l’IA qui reflète les préférences de l’utilisateur. Par conséquent, deux utilisateurs différents peuvent examiner la même sortie et avoir des opinions différentes sur son utilité ou sa pertinence par rapport à leur situation et à leurs attentes uniques, ce qui signifie que les performances de ces systèmes doivent être définies de manière plus flexible. Nous considérons généralement que les performances signifient que l’application fonctionne comme prévu par les utilisateurs.

Meilleures pratiques pour améliorer les performances du système 

Interagissez avec l’interface à l’aide d’un langage conversationnel naturel.    L’interaction avec Copilot d’une manière confortable pour l’utilisateur est essentielle pour obtenir de meilleurs résultats grâce à l’expérience. À l’instar de l’adoption de techniques pour aider les utilisateurs à communiquer efficacement dans leur vie quotidienne, l’interaction avec Copilot en tant que assistant alimenté par l’IA par le biais de texte ou de parole familier à l’utilisateur peut aider à obtenir de meilleurs résultats.

Expérience utilisateur et adoption.    L’utilisation efficace de Copilot nécessite que les utilisateurs comprennent ses fonctionnalités et ses limitations. Il peut y avoir une courbe d’apprentissage, et les utilisateurs peuvent souhaiter référencer diverses ressources Copilot (par exemple, ce document et notre FAQ Copilot) pour interagir efficacement avec le service et en tirer parti.

Mappage, mesure et gestion des risques

Comme d’autres technologies de transformation, l’exploitation des avantages de l’IA n’est pas sans risque, et une partie essentielle du programme d’IA responsable de Microsoft est conçue pour identifier et mapper les risques potentiels, mesurer ces risques et les gérer en créant des atténuations et en améliorant continuellement Copilot au fil du temps. Dans les sections ci-dessous, nous décrivons notre approche itérative pour cartographier, mesurer et gérer les risques potentiels.

Carte : une planification minutieuse et des tests contradictoires préalables au déploiement, tels que l’association rouge, nous aident à mapper les risques potentiels. Les modèles sous-jacents qui alimentent l’expérience Copilot ont été testés en équipe rouge par des testeurs qui représentent des perspectives multidisciplinaires dans des domaines pertinents. Ce test a été conçu pour évaluer la façon dont la technologie la plus récente fonctionnerait avec et sans protection supplémentaire appliquée. L’objectif de ces exercices au niveau du modèle est de produire des réponses nuisibles, d’exposer des possibilités potentielles d’utilisation abusive et d’identifier les capacités et les limitations.

Avant de rendre l’expérience Copilot disponible publiquement dans une préversion limitée, nous avons également effectué des équipes rouges au niveau de l’application afin d’évaluer Copilot pour détecter les lacunes et les vulnérabilités. Ce processus nous a aidés à mieux comprendre comment le système pouvait être utilisé par un large éventail d’utilisateurs et nous a aidés à améliorer nos mesures d’atténuation.

Mesure : En plus d’évaluer Copilot par rapport à nos évaluations de sécurité existantes, l’utilisation de l’association rouge décrite ci-dessus nous a aidés à développer des évaluations et des métriques d’IA responsables correspondant aux risques potentiels identifiés, tels que les jailbreaks, le contenu nuisible et le contenu non basé.

Nous avons collecté des données de conversation ciblant ces risques, à l’aide d’une combinaison de participants humains et d’un pipeline de génération de conversation automatisé. Chaque évaluation est ensuite notée par un pool d’annotateurs humains formés ou par un pipeline d’annotation automatisé. Chaque fois que le produit change, que les atténuations existantes sont mises à jour ou que de nouvelles atténuations sont proposées, nous mettons à jour nos pipelines d’évaluation pour évaluer à la fois les performances du produit et les métriques d’IA responsable. Ces pipelines de contexte d’évaluation automatisés sont une combinaison de conversations collectées avec des évaluateurs humains et de conversations synthétiques générées avec des llms invités à tester les stratégies de manière contradictoire. Chacune de ces évaluations de sécurité est automatiquement notée avec des LPM. Pour les évaluations nouvellement développées, chaque évaluation est initialement notée par des étiqueteurs humains qui lisent le contenu du texte ou écoutent la sortie audio, puis converties en évaluations automatiques basées sur LLM.

Le comportement prévu de nos modèles en combinaison avec nos pipelines d’évaluation (à la fois humains et automatisés) nous permet d’effectuer rapidement des mesures pour les risques potentiels à grande échelle. À mesure que nous identifions de nouveaux problèmes au fil du temps, nous continuons à développer les ensembles de mesures pour évaluer les risques supplémentaires. 

Gérer : à mesure que nous avons identifié les risques potentiels et les mauvaises utilisations par le biais de l’association rouge et que nous les avons mesurés avec les approches décrites ci-dessus, nous avons développé des atténuations supplémentaires spécifiques à l’expérience Copilot. Ci-dessous, nous décrivons certaines de ces atténuations. Nous continuerons à surveiller l’expérience Copilot pour améliorer les performances des produits et notre approche d’atténuation des risques. 

  • Plans de mise en production par phases et évaluation continue.    Nous nous engageons à apprendre et à améliorer continuellement notre approche d’IA responsable à mesure que nos technologies et que le comportement des utilisateurs évoluent. Notre stratégie de mise en production incrémentielle a été au cœur de la façon dont nous faisons passer notre technologie en toute sécurité du labo au monde, et nous nous engageons à mettre en place un processus délibéré et réfléchi pour garantir les avantages de l’expérience Copilot. Nous apportons régulièrement des modifications à Copilot pour améliorer les performances des produits et les atténuations existantes, et implémenter de nouvelles atténuations en réponse à nos apprentissages.

  • Tirer parti des classifieurs et du message système pour atténuer les risques potentiels ou les mauvaises utilisations.    En réponse aux invites des utilisateurs, les llms peuvent produire du contenu problématique. Nous avons abordé les types de contenu que nous essayons de limiter dans les sections Comportement du système et Limitations ci-dessus. Les classifieurs et le message système sont deux exemples d’atténuations qui ont été implémentées dans Copilot pour aider à réduire le risque de ces types de contenu. Les classifieurs classent le texte pour signaler le contenu potentiellement dangereux dans les invites utilisateur ou les réponses générées. Nous utilisons également les meilleures pratiques existantes pour tirer parti du message système, ce qui implique de donner des instructions au modèle pour aligner son comportement sur les principes d’IA de Microsoft et sur les attentes des utilisateurs.

  • Consentement aux chargements d’images Copilot.    La première fois qu’un utilisateur charge une image contenant des visages sur Copilot, il est invité à donner son consentement pour que ses données biométriques soient chargées sur Copilot. Si un utilisateur ne l’accepte pas, l’image n’est pas envoyée à Copilot. Toutes les images, qu’elles contiennent ou non des visages, sont supprimées dans les 30 jours suivant la fin de la conversation.

  • Divulgation d’IA.    Copilot est également conçu pour informer les utilisateurs qu’ils interagissent avec un système IA. À mesure que les utilisateurs interagissent avec Copilot, nous proposons différents points de contact conçus pour les aider à comprendre les fonctionnalités du système, à leur révéler que Copilot est alimenté par l’IA et à communiquer des limitations. L’expérience est conçue de cette façon pour aider les utilisateurs à tirer le meilleur parti de Copilot et réduire le risque de dépendance excessive. Les divulgations aident également les utilisateurs à mieux comprendre Copilot et leurs interactions avec celui-ci.

  • Provenance du média.    Lorsque Copilot génère une image, nous avons activé une fonctionnalité « Informations d’identification de contenu », qui utilise des méthodes de chiffrement pour marquer la source, ou « provenance », de toutes les images générées par l’IA créées à l’aide de Copilot. Cette technologie utilise les normes définies par la Coalition for Content and Authentic (C2PA) pour ajouter une couche supplémentaire de confiance et de transparence pour les images générées par l’IA.

  • Détection de contenu automatisée.    Lorsque les utilisateurs chargent des images dans le cadre de leur invite de conversation, Copilot déploie des outils pour détecter les images d’exploitation et d’abus sexuels des enfants (CSEAI). Microsoft signale toutes les CSEAI apparentes au National Center for Missing and Exploited Children (NCMEC), comme l’exige la loi américaine. Lorsque les utilisateurs chargent des fichiers à analyser ou à traiter, Copilot déploie l’analyse automatisée pour détecter le contenu susceptible d’entraîner des risques ou une mauvaise utilisation, comme du texte pouvant être lié à des activités illégales ou à du code malveillant.

  • Conditions d’utilisation et code de conduite.    Les utilisateurs doivent respecter les Conditions d’utilisation et le Code de conduite applicables du Contrat de services Microsoft de Copilot, ainsi que la Déclaration de confidentialité Microsoft, qui, entre autres choses, les informent des utilisations autorisées et non autorisées et des conséquences de la violation des conditions. Les conditions d’utilisation fournissent également des informations supplémentaires aux utilisateurs et servent de référence aux utilisateurs pour en savoir plus sur Copilot. Les utilisateurs qui commettent des violations graves ou répétées peuvent être temporairement ou définitivement suspendus du service.

  • Commentaires, surveillance et supervision.    L’expérience Copilot s’appuie sur des outils existants qui permettent aux utilisateurs d’envoyer des commentaires, qui sont examinés par les équipes des opérations de Microsoft. En outre, notre approche de la cartographie, de la mesure et de la gestion des risques continuera d’évoluer à mesure que nous en apprenons davantage, et nous apportons déjà des améliorations en fonction des commentaires recueillis pendant les périodes de préversion.

En savoir plus sur l’IA responsable

Rapport sur la transparence de l’IA responsable Microsoft

Principes de Microsoft AI

Ressources d’IA responsable Microsoft

Cours Microsoft Azure Learning sur l’IA responsable

En savoir plus sur Microsoft Copilot

Microsoft Copilot questions fréquentes (FAQ)

À propos de ce document

© Microsoft Corporation 2024. Tous droits réservés. Ce document est fourni « tel quelle » et à titre d’information uniquement. Les informations et vues exprimées dans ce document, y compris l’URL et d’autres références de site Web Internet, peuvent changer sans préavis. Vous assumez tous les risques liés à son utilisation. Certains exemples sont à titre d’illustration uniquement et sont fictifs. Aucune association réelle n’est prévue ou déduite.

Ce document n’est pas destiné à être et ne doit pas être interprété comme fournissant des conseils juridiques. La juridiction dans laquelle vous travaillez peut avoir diverses exigences réglementaires ou légales qui s’appliquent à votre système d’IA. Consultez un spécialiste du droit si vous n’êtes pas certain des lois ou des réglementations qui peuvent s’appliquer à votre système, en particulier si vous pensez que celles-ci peuvent avoir une incidence sur ces recommandations. N’oubliez pas que toutes ces recommandations et ressources ne sont pas adaptées à tous les scénarios, et inversement, ces recommandations et ressources peuvent être insuffisantes pour certains scénarios.

Date de publication : 01/10/2024

Dernière mise à jour : 01/10/2024

Besoin d’aide ?

Vous voulez plus d’options ?

Explorez les avantages de l’abonnement, parcourez les cours de formation, découvrez comment sécuriser votre appareil, etc.