Última atualização: 19 de dezembro de 2025

O que é uma Nota de Transparência?

Um sistema de IA inclui não apenas a tecnologia, mas também as pessoas que a usarão, as pessoas que serão afetadas por ela e o ambiente em que ela é implantada. As Notas de Transparência da Microsoft visam ajudá-lo a entender como funciona a tecnologia de IA por trás do Copilot, as escolhas que fizemos que influenciam o desempenho e o comportamento do sistema e a importância de pensar em todo o sistema, para que os usuários do Copilot possam assumir o controle de suas próprias experiências e entender as etapas que estamos tomando para fornecer um produto seguro e seguro.

As Notas de Transparência da Microsoft fazem parte de um esforço mais amplo da Microsoft para colocar nossos Princípios de IA em prática. Para saber mais, confira os Princípios de IA da Microsoft

O básico de Microsoft Copilot

Introdução

Copilot é uma experiência com a IA que ajudará a fornecer aos usuários as informações que eles estão buscando enquanto estão preparados para dar suporte aos usuários na resposta a uma ampla gama de perguntas, independentemente da situação ou do tópico. O Copilot atualizado vai além de responder a consultas básicas de recuperação de informações e se concentra na geração de conteúdo para oferecer suporte mais proativo aos usuários ao concluir tarefas. Temos uma compreensão crescente de como a IA tem o potencial de ajudar as pessoas a aprender, descobrir e ser mais criativas, o que nos exigiu criar um tipo diferente de produto. A nova experiência Copilot busca se tornar um novo tipo de experiência aberta e dinâmica para atender melhor às necessidades do usuário de uma maneira mais intuitiva.

Na Microsoft, levamos a sério nosso compromisso com a IA responsável. A experiência atualizada do Copilot foi desenvolvida de acordo com os Princípios de IA da Microsoft, a Standard de IA Responsável da Microsoft e em parceria com especialistas responsáveis em IA em toda a empresa, incluindo o Office of Responsible AI da Microsoft, nossas equipes de engenharia, Microsoft Research e Aether. Você pode saber mais sobre IA responsável na Microsoft aqui.  

Neste documento, descrevemos nossa abordagem para IA responsável para Copilot. Antes do lançamento, aproveitamos os métodos de última geração da Microsoft para mapear, medir e gerenciar riscos potenciais e uso indevido do sistema e garantir seus benefícios para os usuários. À medida que continuamos a evoluir Copilot, também continuamos a aprender e melhorar nossos esforços responsáveis de IA. Este documento será atualizado periodicamente para comunicar nossos processos e métodos em evolução.  

Termos-chave

Classificadores    Modelos de machine learning que ajudam a classificar dados em classes ou categorias de informações rotuladas. Na experiência de Copilot atualizada, uma maneira pela qual usamos classificadores é ajudar a detectar conteúdo potencialmente prejudicial enviado pelos usuários ou gerado pelo sistema para mitigar a geração desse conteúdo e uso indevido ou abuso do sistema. 

Aterramento    Para determinadas conversas em que os usuários estão buscando informações, o Copilot está fundamentado nos resultados da pesquisa na Web. Isso significa que o Copilot centra sua resposta em conteúdo de alto escalão da Web e fornece citações hiperlinkadas após respostas de texto geradas. Observe que, neste momento, os prompts do usuário no modo de voz não dispararão uma pesquisa na Web, portanto, nenhuma resposta incluirá citações.

LLMs (modelos de linguagem grandes)    Os LLMs (grandes modelos de linguagem) neste contexto são modelos de IA treinados em grandes quantidades de dados de texto para prever palavras em sequências. As LLMs podem executar uma variedade de tarefas, como geração de texto, resumo, tradução, classificação e muito mais.

Atenuação    Um método ou uma combinação de métodos projetados para reduzir riscos potenciais que podem surgir do uso dos recursos de IA no Copilot.

Modelos multimodais (MMMs)    Modelos multimodais (MMMs) são modelos de IA treinados em diferentes tipos de dados, como texto, imagens ou áudio. Esses modelos podem executar uma variedade de tarefas, como escrever texto, descrever imagens, reconhecer fala e encontrar informações em diferentes tipos de dados.

Prompts    Entradas na forma de texto, imagens e/ou áudio que um usuário envia para Copilot para interagir com os recursos de IA no Copilot.

Equipe vermelha    Técnicas usadas por especialistas para avaliar as limitações e vulnerabilidades de um sistema e testar a eficácia das mitigações planejadas. O teste em equipe vermelha inclui testadores que adotam personas benignas e adversárias para identificar riscos potenciais e são distintos da medição sistemática dos riscos.

Respostas    Texto, imagens ou áudio que Copilot gera em resposta a um prompt ou como parte do vai e vem com o usuário. Sinônimos de "resposta" incluem "conclusão", "geração e "resposta".

Modelos de idioma pequeno (SLMs)    Modelos de linguagem pequenos (SLMs) neste contexto são modelos de IA treinados em quantidades menores e mais focadas de dados em comparação com modelos de linguagem grandes. Apesar de seu tamanho menor, os SLMs podem executar uma variedade de tarefas, como geração de texto, resumo, tradução e classificação. Embora possam não corresponder às funcionalidades extensas das LLMs, as SLMs geralmente são mais eficientes em recursos e podem ser altamente eficazes para aplicativos específicos e direcionados. 

Mensagem do Sistema    A mensagem do sistema (às vezes chamada de "metaprompt") é um programa que serve para orientar o comportamento do sistema. Partes da mensagem do sistema ajudam a alinhar o comportamento do sistema com os Princípios de IA da Microsoft e as expectativas do usuário. Por exemplo, uma mensagem do sistema pode incluir uma linha como "não forneça informações ou crie conteúdo que possa causar danos físicos, emocionais ou financeiros". 

Recursos

Comportamento do sistema

Com o Copilot, desenvolvemos uma abordagem inovadora para levar uma experiência de IA mais personalizada aos usuários para uma experiência envolvente que pode ajudar os usuários com uma variedade de tarefas. Essa abordagem inovadora aproveita uma variedade de tecnologias avançadas, como linguagem e modelos multimodais da Microsoft, OpenAI e outros desenvolvedores de modelos. Trabalhamos na implementação de técnicas de segurança para os modelos subjacentes à nova experiência copilot antes do lançamento público para desenvolver um conjunto personalizado de recursos e comportamentos que fornecem uma experiência de Copilot aprimorada. No Copilot atualizado, os usuários podem enviar prompts em texto ou voz de linguagem natural. As respostas são apresentadas aos usuários em vários formatos diferentes, como respostas de chat em formulário de texto (com links tradicionais para conteúdo da Web conforme necessário) e imagens (se uma solicitação de imagem foi feita como parte do prompt). Se os usuários enviarem prompts na voz da linguagem natural no modo Voz copilot, eles receberão respostas de áudio. 

Quando um usuário insere um prompt no Copilot, o prompt, o histórico de conversas e a mensagem do sistema são enviados por vários classificadores de entrada para ajudar a filtrar conteúdo prejudicial ou inadequado. Esta é uma primeira etapa crucial para ajudar a melhorar o desempenho do modelo e mitigar situações em que os usuários podem tentar solicitar o modelo de uma maneira que possa não ser segura. Depois que o prompt passa pelos classificadores de entrada, ele é enviado para um SLM para determinar se a solicitação requer o aterramento de dados da Web e qual modelo de idioma deve responder à solicitação. Todos os modelos geram uma resposta usando o histórico de conversas rápida e recente do usuário para contextualizar a solicitação, a mensagem do sistema para alinhar respostas com princípios de IA da Microsoft e expectativas do usuário e, se apropriado, alinhar respostas com resultados de pesquisa a respostas básicas no conteúdo existente e de alto escalão da Web.  

As respostas são apresentadas aos usuários em vários formatos diferentes, como respostas de chat em formulário de texto, links tradicionais para conteúdo da Web, imagens e respostas de áudio. Quando as respostas são fornecidas na forma de texto e as respostas são aterradas em dados da Web, a saída contém citações hiperlinkadas listadas abaixo do texto para que os usuários possam acessar os sites usados para aterrar a resposta e saber mais sobre o tópico a partir daí. Copilot também pode executar código para concluir cálculos complexos e gerar grafos. Copilot pode armazenar fatos específicos que os usuários solicitam que ele lembre, permitindo que ele gere respostas e sugestões mais relevantes com base nesse contexto. Copilot também pode excluir fatos salvos quando os usuários pedem para esquecê-los explicitamente.

Copilot também ajuda os usuários a criar novas histórias, poemas, letras de música e imagens. Quando o Copilot detecta a intenção do usuário de gerar conteúdo criativo (como um prompt de usuário que começa com "write me a ..."), o sistema gerará, na maioria dos casos, conteúdo responsivo ao prompt do usuário. Da mesma forma, quando Copilot detecta a intenção do usuário de gerar uma imagem (como um prompt de usuário que começa com "desenhar um ..."), Copilot gerará, na maioria dos casos, uma imagem responsiva ao prompt do usuário. Quando o Copilot detecta a intenção do usuário de modificar uma imagem carregada (como um prompt de usuário que começa com "adicionar um ..."), o Copilot modificará, na maioria dos casos, uma imagem responsiva ao prompt do usuário. O copiloto pode não responder com conteúdo criativo quando o prompt do usuário contém determinados termos que podem resultar em conteúdo problemático.

Os usuários com contas da Microsoft (MSA) agora também têm a opção de assinar Copilot Pro, que oferece uma experiência aprimorada, incluindo desempenho acelerado, uso de recursos do Copilot Voice por períodos mais longos de tempo e, em alguns casos, acesso a novos recursos experimentais. Copilot Pro está atualmente disponível em um número limitado de países, e planejamos disponibilizar Copilot Pro em mais mercados em breve.

Comportamento de segurança pretendido

Nosso objetivo para Copilot é ser útil para os usuários. Ao aproveitar as práticas recomendadas de outros produtos e serviços de IA generativos da Microsoft, nosso objetivo é limitar o Copilot de gerar conteúdo problemático e aumentar a probabilidade de uma experiência segura e positiva do usuário. Embora tenhamos tomado medidas para mitigar riscos, modelos de IA generativos como aqueles por trás do Copilot são probabilísticos e podem cometer erros, o que significa que as mitigações podem ocasionalmente falhar em bloquear prompts de usuário prejudiciais ou respostas geradas por IA. Se você encontrar conteúdo prejudicial ou inesperado ao usar Copilot, informe-nos fornecendo comentários para que possamos continuar a melhorar a experiência.

Usar casos

Usos pretendidos

O Copilot destina-se a dar suporte aos usuários na resposta a uma ampla gama de perguntas, independentemente da situação ou do tópico. Os usuários podem interagir com o Copilot usando entradas de texto, imagem e áudio em que as interações se destinam a se sentir mais como conversas naturais com um sistema de IA. Além disso, se os usuários estiverem interagindo com Copilot por meio de texto para buscar informações específicas sobre tópicos em que o Copilot pode exigir mais informações para produzir uma resposta mais precisa, a experiência se destina a conectar os usuários com resultados de pesquisa relevantes, examinar resultados de toda a Web e resumir as informações que os usuários estão procurando. No Copilot, os usuários podem: 

  • Resumir informações em tempo real ao conversar por meio de texto.    Quando os usuários interagem com Copilot por texto, o sistema executará pesquisas na Web se precisar de mais informações e usará os principais resultados de pesquisa na Web para gerar um resumo das informações a serem apresentadas aos usuários. Esses resumos incluem citações a páginas da Web para ajudar os usuários a ver e acessar facilmente as fontes para obter resultados de pesquisa que ajudaram a aterrar o resumo de Copilot. Os usuários podem clicar nesses links para ir direto para a origem se desejarem saber mais.

  • Converse com um sistema de IA usando texto.    Os usuários podem conversar com Copilot por texto e fazer perguntas de acompanhamento para encontrar novas informações e receber suporte em uma ampla variedade de tópicos.

  • Interface com IA usando voz e aparências.    O copiloto não só pode receber entrada de áudio, mas também produzir saída de áudio em uma das quatro vozes selecionadas pelos usuários e apresentar uma aparência visual para enriquecer a interação. Os recursos de áudio em áudio e aparência permitem que os usuários interajam com Copilot de maneira mais natural e fluida.

  • Receba conteúdo de notícias digestíveis.    Os usuários podem usar Copilot para receber um resumo de notícias, clima e outras atualizações com base em áreas de tópico selecionadas por meio do recurso Copilot Daily e ouvir esses briefings em um formato semelhante a um podcast. Esse recurso extrairá conteúdo de fontes autorizadas que têm contratos com a Microsoft.

  • Obtenha ajuda para gerar novas ideias.    Sempre que os usuários interagirem com a experiência copilot, eles verão um conjunto de cartões que podem clicar para começar a conversar com Copilot sobre tópicos úteis e interessantes. Se os usuários interagirem com outros serviços de consumidor da Microsoft, os cartões serão personalizados, de acordo com nossas políticas de privacidade. Ao longo do tempo, os cartões no Copilot podem ser personalizados com base no histórico de chat de um usuário. Os usuários podem optar por não personalizar a qualquer momento nas configurações.

  • Gerar conteúdo criativo.    Ao conversar com Copilot, os usuários podem criar novos poemas, piadas, histórias, imagens e outros conteúdos com a ajuda da experiência Copilot. Copilot também pode editar imagens carregadas pelos usuários, se solicitado.

  • Execute tarefas no Android.Os usuários podem interagir com o Copilot por meio da plataforma Android por meio da voz para executar determinadas tarefas. Essas tarefas estão configurando temporizadores e alarmes, fazendo chamadas telefônicas, enviando mensagens SMS e ordenando um Uber. Os usuários devem confirmar a chamada telefônica, a mensagem SMS e o pedido do Uber antes que as tarefas sejam concluídas.

  • Auxiliar na pesquisa.  O Copilot pode realizar tarefas de pesquisa acessando recursos aprofundados, oferecendo detalhamentos de tópicos e vinculando-se a fontes para ajudar os usuários a ir além de respostas rápidas para consultas mais complexas. Copilot pode gerar proativamente sugestões de pesquisa personalizadas para usuários com base em coisas como consultas de pesquisa anteriores e memória Copilot. Os usuários podem optar por não personalizar ou notificações a qualquer momento nas configurações.

  • Explore o mundo com a Visão copiloto. Copilot pode exibir sua tela ou feed de câmera móvel e usar sua voz para responder perguntas e interagir com você. O copiloto pode examinar, analisar e oferecer sugestões instantaneamente em tempo real para ajudá-lo no trabalho, na navegação ou na exploração do mundo. O Copilot Vision está disponível no Edge, Windows, iOS e Android.

  • Recuperação de informações com Conectores.Com o consentimento, o Copilot pode pesquisar e interagir com seus arquivos de nuvem usando linguagem natural. O Copilot pode recuperar emails, procurar contatos e marcar compromissos de calendário de contas do Microsoft Outlook e do Google Gmail. 

  • Colabore com grupos copilotos. Por convite, você pode ingressar ou criar conversas em grupo com o Copilot para colaborar em projetos e ideias conjuntas.

Considerações ao escolher outros casos de uso

Incentivamos os usuários a revisar todo o conteúdo antes de tomar decisões ou agir com base nas respostas do Copilot, pois a IA pode cometer erros. Além disso, há certos cenários que recomendamos evitar ou que vão em relação aos nossos Termos de Uso. Por exemplo, a Microsoft não permite que Copilot seja usado em conexão com atividades ilegais ou para qualquer finalidade destinada a promover atividades ilegais.  

Limitações

Os modelos de linguagem, imagem e áudio que estão por baixo da experiência Copilot podem incluir dados de treinamento que podem refletir vieses sociais, o que, por sua vez, pode potencialmente fazer com que Copilot se comporte de maneiras percebidas como injustas, não confiáveis ou ofensivas. Apesar de nosso treinamento intensivo de modelo e ajuste de segurança, bem como a implementação dos controles de IA responsáveis e sistemas de segurança que colocamos em dados de treinamento, prompts de usuário e saídas de modelo, os serviços controlados por IA são falíveis e probabilísticos. Isso torna desafiador bloquear de forma abrangente todo o conteúdo inadequado, levando a riscos de que possíveis vieses, estereótipos, inserção ou outros tipos de danos que possam aparecer no conteúdo gerado por IA. Algumas das maneiras pelas quais essas limitações podem se manifestar na experiência copilot são listadas aqui. 

  • Estereótipos: a experiência copiloto poderia potencialmente reforçar estereótipos. Por exemplo, ao traduzir "Ele é um enfermeiro" e "Ela é médica" em uma linguagem sem gênero como turco e depois voltar para o inglês, Copilot pode inadvertidamente produzir os resultados estereotipados (e incorretos) de "Ela é enfermeira" e "Ele é um médico". Outro exemplo é ao gerar uma imagem com base no prompt "Filhos sem Pai", o sistema poderia gerar imagens de crianças de apenas uma raça ou etnia, reforçando estereótipos prejudiciais que poderiam existir em imagens publicamente disponíveis usadas para treinar os modelos subjacentes. Copilot também pode reforçar estereótipos com base no conteúdo na imagem de entrada do usuário, confiando em componentes da imagem e fazendo suposições que podem não ser verdadeiras. Implementamos mitigações para reduzir o risco de conteúdo que contém estereótipos ofensivos, incluindo classificadores de entrada e saída, modelos ajustados e mensagens do sistema.

  • Superrepresentação e sub-representação: Copilot poderia potencialmente substituir ou sub-representar grupos de pessoas, ou mesmo não representá-los em tudo, em suas respostas. Por exemplo, se as solicitações de texto que contêm a palavra "gay" forem detectadas como potencialmente prejudiciais ou ofensivas, isso poderá levar à sub-representação de gerações legítimas sobre a comunidade LGBTQIA+. Além de incluir classificadores de entrada e saída, modelos ajustados, bem como mensagens do sistema, usamos o enriquecimento de prompt em Designer como uma das várias mitigações para reduzir o risco de conteúdo que representa demais ou sub-representa grupos de pessoas.

  • Conteúdo inadequado ou ofensivo: a experiência Copilot pode potencialmente produzir outros tipos de conteúdo inadequado ou ofensivo. Exemplos incluem a capacidade de gerar conteúdo em uma modalidade (por exemplo, áudio) que é inadequada no contexto de seu prompt ou quando comparada com a mesma saída em uma modalidade diferente (por exemplo, texto). Outros exemplos incluem imagens geradas por IA que potencialmente contêm artefatos prejudiciais, como símbolos de ódio, conteúdo relacionado a tópicos contestados, controversos ou ideologicamente polarizadores e conteúdo sexualmente carregado que evita filtros de conteúdo relacionados ao sexo. Colocamos em prática mitigações para reduzir o risco de gerações que contêm conteúdo inadequado ou ofensivo, como classificadores de entrada e saída, modelos ajustados e mensagens do sistema.

  • Confiabilidade das informações: enquanto Copilot pretende responder com fontes confiáveis quando necessário, a IA pode cometer erros. Poderia potencialmente gerar conteúdo sem sentido ou fabricar conteúdo que possa parecer razoável, mas factualmente impreciso. Mesmo ao extrair respostas de dados Web de alta autoridade, as respostas podem deturpar esse conteúdo de uma maneira que pode não ser completamente precisa ou confiável. Lembramos aos usuários por meio da interface do usuário e em documentação como esta que Copilot pode cometer erros. Também continuamos a educar os usuários sobre as limitações da IA, como incentivá-los a marcar fatos antes de tomar decisões ou agir com base nas respostas de Copilot. Quando os usuários estiverem interagindo com Copilot por meio de texto, ele tentará se basear em dados Web de alta qualidade para reduzir o risco de que as gerações não estejam em primeiro plano.

  • Desempenho multilíngue: pode haver variações no desempenho entre idiomas, com o inglês tendo o melhor desempenho no momento da liberação do Copilot atualizado. Melhorar o desempenho entre idiomas é uma área de investimento fundamental e modelos recentes levaram a um melhor desempenho.

  • Limitações de áudio: os modelos de áudio podem introduzir outras limitações. Em termos gerais, a qualidade acústica da entrada de fala, ruído, vocabulário, sotaques e erros de inserção também pode afetar se Copilot processa e responde à entrada de áudio de um usuário de forma satisfatória. Além disso, como o usuário solicita ao usar o Copilot Voice não disparará pesquisas na Web, o Copilot pode não ser capaz de responder aos eventos atuais no modo de voz.

  • Dependência da conectividade com a Internet: a experiência atualizada do Copilot depende da conectividade com a Internet para funcionar. Interrupções na conectividade podem ter um impacto na disponibilidade e no desempenho do serviço.

Desempenho do sistema

Em muitos sistemas de IA, o desempenho geralmente é definido em relação à precisão (ou seja, com que frequência o sistema de IA oferece uma previsão ou saída correta). Com o Copilot, estamos focados no Copilot como uma assistente com energia de IA que reflete as preferências do usuário. Portanto, dois usuários diferentes podem olhar para a mesma saída e ter opiniões diferentes sobre o quão útil ou relevante é para sua situação e expectativas exclusivas, o que significa que o desempenho desses sistemas deve ser definido com mais flexibilidade. Consideramos amplamente o desempenho para significar que o aplicativo é executado como os usuários esperam.

Melhores práticas para melhorar o desempenho do sistema 

Interaja com a interface usando linguagem natural e conversacional.    Interagir com o Copilot de uma forma confortável para o usuário é fundamental para obter melhores resultados por meio da experiência. Semelhante à adoção de técnicas para ajudar as pessoas a se comunicarem efetivamente no seu dia a dia, interagir com Copilot como um assistente alimentado por IA por meio de texto ou fala familiar ao usuário pode ajudar a obter melhores resultados.

Experiência e adoção do usuário.    O uso efetivo do Copilot exige que os usuários entendam suas funcionalidades e limitações. Pode haver uma curva de aprendizado, e os usuários podem querer fazer referência a vários recursos copilot (por exemplo, este documento e nossas perguntas frequentes do Copilot) para interagir e se beneficiar efetivamente do serviço.

Mapeamento, medição e gerenciamento de riscos

Como outras tecnologias transformadoras, aproveitar os benefícios da IA não é livre de riscos e uma parte central do programa de IA Responsável da Microsoft é projetada para identificar e mapear riscos potenciais, medir esses riscos e gerenciá-los criando mitigações e melhorando continuamente o Copilot ao longo do tempo. Nas seções abaixo, descrevemos nossa abordagem iterativa para mapear, medir e gerenciar riscos potenciais.

Mapa: o planejamento cuidadoso e os testes adversários de pré-implantação, como o agrupamento vermelho, nos ajudam a mapear possíveis riscos. Os modelos subjacentes que alimentam a experiência Copilot passaram por testes em equipe vermelhos de testadores que representam perspectivas multidisciplinares em áreas de tópico relevantes. Este teste foi projetado para avaliar como a tecnologia mais recente funcionaria com e sem quaisquer proteções adicionais aplicadas a ela. A intenção desses exercícios no nível do modelo é produzir respostas prejudiciais, criar caminhos potenciais para uso indevido e identificar funcionalidades e limitações.

Antes de disponibilizar publicamente a experiência Copilot em uma versão prévia limitada, também realizamos o agrupamento vermelho no nível do aplicativo para avaliar o Copilot em busca de deficiências e vulnerabilidades. Esse processo nos ajudou a entender melhor como o sistema poderia ser utilizado por uma grande variedade de usuários e nos ajudou a melhorar nossas mitigações.

Medida: além de avaliar o Copilot em relação às nossas avaliações de segurança existentes, o uso do teaming vermelho descrito acima nos ajudou a desenvolver avaliações e métricas de IA responsáveis correspondentes a riscos potenciais identificados, como jailbreaks, conteúdo prejudicial e conteúdo não encalhado.

Coletamos dados conversacionais direcionados a esses riscos, usando uma combinação de participantes humanos e um pipeline de geração de conversa automatizada. Cada avaliação é pontuada por um pool de anotores humanos treinados ou por um pipeline de anotação automatizado. Sempre que o produto muda, mitigações existentes são atualizadas ou novas mitigações são propostas, atualizamos nossos pipelines de avaliação para avaliar o desempenho do produto e as métricas de IA responsáveis. Esses pipelines de contexto de avaliação automatizada são uma combinação de conversas coletadas com avaliadores humanos e conversas sintéticas geradas com LLMs solicitadas a testar políticas de forma adversária. Cada uma dessas avaliações de segurança é pontuada automaticamente com LLMs. Para as avaliações recém-desenvolvidas, cada avaliação é pontuada inicialmente por rotuladores humanos que leem o conteúdo do texto ou escutam a saída de áudio e depois convertidas em avaliações automáticas baseadas em LLM.

O comportamento pretendido de nossos modelos em combinação com nossos pipelines de avaliação , humanos e automatizados, nos permite executar rapidamente a medição de possíveis riscos em escala. À medida que identificamos novos problemas ao longo do tempo, continuamos a expandir os conjuntos de medidas para avaliar riscos adicionais. 

Gerenciar: à medida que identificamos riscos potenciais e uso indevido por meio da equipe vermelha e os medimos com as abordagens descritas acima, desenvolvemos mitigações adicionais específicas para a experiência copilot. Abaixo, descrevemos algumas dessas mitigações. Continuaremos monitorando a experiência copilot para melhorar o desempenho do produto e nossa abordagem de mitigação de riscos. 

  • Planos de versão em fases e avaliação contínua.    Estamos comprometidos em aprender e melhorar nossa abordagem de IA responsável continuamente à medida que nossas tecnologias e comportamento do usuário evoluem. Nossa estratégia de lançamento incremental tem sido uma parte central de como movemos nossa tecnologia com segurança do laboratório para o mundo, e estamos comprometidos com um processo deliberado e atencioso para garantir os benefícios da experiência copilot. Estamos fazendo alterações no Copilot regularmente para melhorar o desempenho do produto e as mitigações existentes e implementar novas mitigações em resposta aos nossos aprendizados.

  • Aproveitando classificadores e a mensagem do sistema para mitigar possíveis riscos ou uso indevido.    Em resposta aos prompts do usuário, as LLMs podem produzir conteúdo problemático. Discutimos tipos de conteúdo que tentamos limitar nas seções Comportamento e Limitações do Sistema acima. Classificadores e a mensagem do sistema são dois exemplos de mitigações que foram implementadas em Copilot para ajudar a reduzir o risco desses tipos de conteúdo. Os classificadores classificam o texto para sinalizar conteúdo potencialmente prejudicial em prompts de usuário ou respostas geradas. Também utilizamos as práticas recomendadas existentes para aproveitar a mensagem do sistema, que envolve dar instruções ao modelo para alinhar seu comportamento com os princípios de IA da Microsoft e com as expectativas do usuário.

  • Consentimento para carregamentos de imagens copilot.    Na primeira vez que um utilizador carregar uma imagem com rostos para a Copilot, ser-lhe-á pedido que dê o seu consentimento para que os dados biométricos sejam carregados para o Copilot. Se um utilizador não optar ativamente por participar, a imagem não será enviada para o Copilot. Todas as imagens, independentemente de conterem ou não rostos, são eliminadas no prazo de 30 dias após o fim da conversação.

  • Divulgação de IA.    O Copilot também foi concebido para informar as pessoas de que estão a interagir com um sistema de IA. À medida que os utilizadores interagem com a Copilot, oferecemos vários pontos táteis concebidos para ajudá-los a compreender as capacidades do sistema, divulgar-lhes que o Copilot tem tecnologia de IA e comunicar limitações. A experiência foi concebida desta forma para ajudar os utilizadores a tirar o máximo partido do Copilot e minimizar o risco de dependência excessiva. As divulgações também ajudam os utilizadores a compreender melhor o Copilot e as suas interações com o mesmo.

  • Proveniência dos media.    Quando o Copilot gera uma imagem, ativemos uma funcionalidade "Credenciais de Conteúdo", que utiliza métodos criptográficos para marcar a origem, ou "proveniência", de todas as imagens geradas por IA criadas com o Copilot. Esta tecnologia utiliza normas definidas pela Coalition for Content and Authenticity (C2PA) para adicionar uma camada extra de confiança e transparência para imagens geradas por IA.

  • Deteção de conteúdo automatizada.    Quando os utilizadores carregam imagens como parte do pedido de chat, a Copilot implementa ferramentas para detetar imagens de exploração sexual infantil e abuso (CSEAI). A Microsoft reporta todos os CSEAI aparentes ao Centro Nacional de Crianças Desaparecidas e Exploradas (NCMEC), conforme exigido pela lei norte-americana. Quando os utilizadores carregam ficheiros para analisar ou processar, a Copilot implementa a análise automatizada para detetar conteúdo que pode levar a riscos ou utilização indevida, como texto que pode estar relacionado com atividades ilegais ou código malicioso.

  • Termos de Utilização e Código de Conduta.    Os utilizadores devem respeitar os Termos de Utilização e Código de Conduta aplicáveis da Copilot e o Contrato de Serviços Microsoft e a Declaração de Privacidade da Microsoft, que, entre outras coisas, os informa sobre utilizações permitidas e impermeáveis e as consequências de violar os termos. Os Termos de Utilização também fornecem divulgações adicionais para os utilizadores e servem como referência para os utilizadores saberem mais sobre o Copilot. Os utilizadores que cometem violações graves ou repetidas podem ser suspensos temporariamente ou permanentemente do serviço.

  • Comentários, monitorização e supervisão.    A experiência Copilot baseia-se em ferramentas existentes que permitem aos utilizadores submeter feedback, que são revistos pelas equipas de operações da Microsoft. Além disso, a nossa abordagem de mapeamento, medição e gestão de riscos continuará a evoluir à medida que aprendemos mais e já estamos a fazer melhorias com base nos comentários recolhidos durante os períodos de pré-visualização.

  • Detetar e Responder a Riscos de Suicídio e Self-Harm.    O Copilot utiliza classificadores de machine learning preparados para reconhecer padrões de linguagem que podem indicar o suicídio ou a intenção de auto-dano por parte do utilizador. Quando esses conteúdos são detetados, o sistema desvincula-se da conversação e, em vez disso, fornece uma linha de ajuda card com recursos de apoio a crises (por exemplo, a Linha de Vida suicida e de crise em 988 no Estados Unidos), incentivando os utilizadores a procurar ajuda profissional. Copilot não fornece aconselhamento; a sua função está limitada à deteção e referência para garantir a segurança do utilizador.

Saiba mais sobre a IA responsável

Relatório de Transparência de IA Responsável da Microsoft

Princípios de IA da Microsoft

Recursos de IA Responsáveis da Microsoft

Cursos do Microsoft Azure Learning em IA Responsável

Saiba mais sobre Microsoft Copilot

Perguntas Mais Frequentes Microsoft Copilot

Acerca deste documento

© 2024 Microsoft Corporation. Todos os direitos reservados. Este documento é fornecido "tal como está" e apenas para fins informativos. As informações e vistas expressas neste documento, incluindo o URL e outras referências de Web site da Internet, podem ser alteradas sem aviso prévio. Você assume o risco de usá-lo. Alguns exemplos são apenas para ilustração e são fictícios. Nenhuma associação real é pretendida ou inferida.

Este documento não se destina a ser e não deve ser interpretado como prestando aconselhamento jurídico. A jurisdição em que está a operar pode ter vários requisitos regulamentares ou legais que se aplicam ao seu sistema de IA. Consulte um especialista em direito se não tiver a certeza sobre leis ou regulamentos que possam aplicar-se ao seu sistema, especialmente se considerar que estas podem afetar estas recomendações. Tenha em atenção que nem todas estas recomendações e recursos serão adequados para todos os cenários e, por outro lado, estas recomendações e recursos podem ser insuficientes para alguns cenários.

Publicado em: 01/10/2024

Última atualização: 01/10/2024

Precisa de mais ajuda?

Quer mais opções

Explore os benefícios da assinatura, procure cursos de treinamento, saiba como proteger seu dispositivo e muito mais.