Última atualização: setembro de 2025
O que é uma Nota de Transparência?
Um sistema de IA inclui não só a tecnologia, mas também as pessoas que a utilizarão, as pessoas que serão afetadas por ela e o ambiente em que é implementada. As Notas de Transparência da Microsoft destinam-se a ajudá-lo a compreender como funciona a tecnologia de IA por trás do Copilot, as escolhas que fizemos que influenciam o desempenho e o comportamento do sistema e a importância de pensar em todo o sistema, para que os utilizadores da Copilot possam controlar as suas próprias experiências e compreender os passos que estamos a seguir para fornecer um produto seguro e seguro.
As Notas de Transparência da Microsoft fazem parte de um esforço mais amplo da Microsoft para pôr em prática os nossos Princípios de IA. Para saber mais, consulte os Princípios de IA da Microsoft.
Noções básicas do Microsoft Copilot
Introdução
O Copilot é uma experiência com tecnologia de IA que ajudará a fornecer aos utilizadores as informações que procuram enquanto estão preparados para suportar os utilizadores na resposta a uma vasta gama de perguntas, independentemente da situação ou tópico. O Copilot atualizado vai além de responder a consultas básicas de obtenção de informações e foca-se na geração de conteúdo para oferecer suporte mais proativo aos utilizadores ao concluir tarefas. Temos uma compreensão crescente de como a IA tem o potencial de ajudar as pessoas a aprender, descobrir e ser mais criativas, o que nos obrigou a criar um tipo de produto diferente. A nova experiência copilot procura tornar-se um novo tipo de experiência que é aberta e dinâmica para melhor responder às necessidades dos utilizadores de uma forma mais intuitiva.
Na Microsoft, levamos a sério o nosso compromisso com a IA responsável. A experiência atualizada da Copilot foi desenvolvida de acordo com os Princípios de IA da Microsoft, o Standard de IA Responsável da Microsoft e em parceria com especialistas responsáveis em IA em toda a empresa, incluindo o Office de IA Responsável da Microsoft, as nossas equipas de engenharia, a Microsoft Research e o Aether. Pode saber mais sobre a IA responsável na Microsoft aqui.
Neste documento, descrevemos a nossa abordagem à IA responsável do Copilot. Antes do lançamento, tiramos partido dos métodos de última geração da Microsoft para mapear, medir e gerir potenciais riscos e utilização indevida do sistema e para proteger os seus benefícios para os utilizadores. À medida que continuamos a evoluir Copilot, continuamos também a aprender e a melhorar os nossos esforços responsáveis de IA. Este documento será atualizado periodicamente para comunicar os nossos métodos e processos em evolução.
Termos-chave
Classificadores Modelos de machine learning que ajudam a ordenar dados em classes etiquetadas ou categorias de informações. Na experiência copilot atualizada, uma forma de utilizarmos classificadores é ajudar a detetar conteúdo potencialmente prejudicial submetido por utilizadores ou gerado pelo sistema para mitigar a geração desse conteúdo e utilização indevida ou abuso do sistema.
Terra Para determinadas conversações em que os utilizadores procuram informações, o Copilot baseia-se nos resultados da pesquisa na Web. Isto significa que a Copilot centra a sua resposta em conteúdos de alto nível da Web e fornece citações hiperligadas após respostas de texto geradas. Tenha em atenção que, neste momento, os pedidos do utilizador no modo de voz não irão acionar uma pesquisa na Web, pelo que nenhuma resposta incluirá citações.
Modelos de linguagem grandes (LLMs) Os modelos de linguagem grandes (LLMs) neste contexto são modelos de IA preparados em grandes quantidades de dados de texto para prever palavras em sequências. Os LLMs podem realizar uma variedade de tarefas, como geração de texto, resumo, tradução, classificação e muito mais.
Mitigação Um método ou combinação de métodos concebidos para reduzir potenciais riscos que podem surgir da utilização das funcionalidades de IA no Copilot.
Modelos multimodal (MMMs) Os modelos multimodal (MMMs) são modelos de IA preparados em diferentes tipos de dados, como texto, imagens ou áudio. Estes modelos podem realizar uma variedade de tarefas, como escrever texto, descrever imagens, reconhecer voz e encontrar informações em diferentes tipos de dados.
Pedidos Entradas sob a forma de texto, imagens e/ou áudio que um utilizador envia para o Copilot para interagir com as funcionalidades de IA no Copilot.
Agrupamento vermelho Técnicas utilizadas por especialistas para avaliar as limitações e vulnerabilidades de um sistema e testar a eficácia das mitigações planeadas. Os testes da equipa vermelha incluem técnicos de teste que adotam personas benignas e adversas para identificar potenciais riscos e são distintos da medição sistemática dos riscos.
Respostas Texto, imagens ou áudio que Copilot produz em resposta a uma linha de comandos ou como parte do texto para trás e para a frente com o utilizador. Os sinónimos para "resposta" incluem "conclusão", "geração e "resposta".
Modelos de linguagem pequena (SLMs) Os modelos de linguagem pequenos (SLMs) neste contexto são modelos de IA preparados em quantidades de dados mais pequenas e focadas em comparação com modelos de linguagem grandes. Apesar do tamanho mais pequeno, os SLMs podem realizar uma variedade de tarefas, como geração de texto, resumo, tradução e classificação. Embora possam não corresponder às extensas capacidades dos LLMs, os SLMs são, muitas vezes, mais eficientes em termos de recursos e podem ser altamente eficazes para aplicações específicas e direcionadas.
Mensagem do Sistema A mensagem do sistema (por vezes referida como "metaprompt") é um programa que serve para orientar o comportamento do sistema. Partes da mensagem do sistema ajudam a alinhar o comportamento do sistema com os Princípios de IA da Microsoft e as expetativas dos utilizadores. Por exemplo, uma mensagem de sistema pode incluir uma linha como "não fornecer informações ou criar conteúdo que possa causar danos físicos, emocionais ou financeiros".
Funcionalidades
Comportamento do sistema
Com a Copilot, desenvolvemos uma abordagem inovadora para proporcionar uma experiência de IA mais personalizada aos utilizadores para uma experiência envolvente que pode ajudar os utilizadores com uma variedade de tarefas. Esta abordagem inovadora tira partido de uma variedade de tecnologias avançadas, como a linguagem e os modelos multimodal da Microsoft, OpenAI e outros programadores de modelos. Trabalhámos na implementação de técnicas de segurança para os modelos subjacentes à nova experiência copilot antes do lançamento público para desenvolver um conjunto personalizado de capacidades e comportamentos que proporcionam uma experiência copilot melhorada. No Copilot atualizado, os utilizadores podem enviar pedidos em texto ou voz em linguagem natural. As respostas são apresentadas aos utilizadores em vários formatos diferentes, como respostas de chat em formato de texto (com ligações tradicionais para conteúdo Web conforme necessário) e imagens (se um pedido de imagem tiver sido feito como parte da linha de comandos). Se os utilizadores enviarem pedidos na voz de linguagem natural no modo Voz copilot, receberão respostas de áudio.
Quando um utilizador introduz um pedido no Copilot, o pedido, o histórico de conversações e a mensagem do sistema são enviados através de vários classificadores de entrada para ajudar a filtrar conteúdo prejudicial ou inadequado. Este é um primeiro passo crucial para ajudar a melhorar o desempenho do modelo e mitigar situações em que os utilizadores podem tentar solicitar o modelo de uma forma que possa não ser segura. Assim que o pedido passar pelos classificadores de entrada, este é enviado para um SLM para determinar se o pedido requer dados de base da Web e qual o modelo de linguagem que deve responder ao pedido. Todos os modelos geram uma resposta com o pedido do utilizador e o histórico de conversações recentes para contextualizar o pedido, a mensagem do sistema para alinhar as respostas com os Princípios de IA da Microsoft e as expetativas do utilizador e, se adequado, alinhar as respostas com os resultados da pesquisa com as respostas básicas em conteúdos existentes e de alta classificação da Web.
As respostas são apresentadas aos utilizadores em vários formatos diferentes, como respostas de chat em formato de texto, ligações tradicionais para conteúdo Web, imagens e respostas de áudio. Quando as respostas são fornecidas sob a forma de texto ( e as respostas são fundamentadas em dados da Web), a saída contém citações hiperligadas listadas abaixo do texto para que os utilizadores possam aceder aos sites que foram utilizados para fundamentar a resposta e saber mais sobre o tópico a partir daí. O Copilot também pode executar código para concluir cálculos complexos e gerar gráficos. O Copilot pode armazenar factos específicos que os utilizadores pedem para memorizar, permitindo-lhe gerar respostas e sugestões mais relevantes com base nesse contexto. O Copilot também pode eliminar factos guardados quando os utilizadores pedem para os esquecer explicitamente.
O Copilot também ajuda os utilizadores a criar novas histórias, poemas, letras de música e imagens. Quando a Copilot deteta a intenção do utilizador de gerar conteúdo criativo (como um pedido de utilizador que começa por "escrever-me um..."), o sistema irá, na maioria dos casos, gerar conteúdo reativo para o pedido do utilizador. Da mesma forma, quando o Copilot deteta a intenção do utilizador de gerar uma imagem (por exemplo, um pedido de utilizador que começa com "desenhe-me um ..."), a Copilot irá, na maioria dos casos, gerar uma imagem que responda ao pedido do utilizador. Quando o Copilot deteta a intenção do utilizador de modificar uma imagem carregada (como um pedido de utilizador que começa por "adicionar um..."), a Copilot modificará, na maioria dos casos, uma imagem que responde ao pedido do utilizador. O Copilot pode não responder com conteúdo criativo quando o pedido do utilizador contém determinados termos que podem resultar em conteúdo problemático.
Agora, os utilizadores com contas Microsoft (MSA) também têm a opção de subscrever Copilot Pro, que oferece uma experiência melhorada, incluindo desempenho acelerado, utilização de capacidades de Voz copilot por períodos de tempo mais longos e, em alguns casos, acesso a novas funcionalidades experimentais. Copilot Pro está atualmente disponível num número limitado de países e planeamos disponibilizar Copilot Pro em mais mercados em breve.
Comportamento de Segurança Pretendido
O nosso objetivo para o Copilot é ser útil para os utilizadores. Ao tirar partido das melhores práticas de outros produtos e serviços de IA geradores da Microsoft, pretendemos limitar o Copilot de gerar conteúdo problemático e aumentar a probabilidade de uma experiência de utilizador segura e positiva. Embora tenhamos tomado medidas para mitigar riscos, os modelos de IA geradores como os que estão por trás do Copilot são probabilísticos e podem cometer erros, o que significa que as mitigações podem, ocasionalmente, não bloquear pedidos de utilizador prejudiciais ou respostas geradas por IA. Se encontrar conteúdo prejudicial ou inesperado ao utilizar o Copilot, informe-nos ao fornecer feedback para que possamos continuar a melhorar a experiência.
Casos de utilização
Utilizações pretendidas
O Copilot destina-se a suportar os utilizadores na resposta a uma vasta gama de perguntas, independentemente da situação ou tópico. Os utilizadores podem interagir com o Copilot através de entradas de texto, imagem e áudio onde as interações se destinam a parecer mais conversações naturais com um sistema de IA. Além disso, se os utilizadores estiverem a interagir com o Copilot através de texto para procurar informações específicas sobre tópicos em que o Copilot pode exigir mais informações para produzir uma resposta mais precisa, a experiência destina-se a ligar utilizadores com resultados de pesquisa relevantes, rever os resultados de toda a Web e resumir informações que os utilizadores procuram. No Copilot, os utilizadores podem:
-
Resumir informações em tempo real ao conversar por texto. Quando os utilizadores interagem com o Copilot através de texto, o sistema irá realizar pesquisas na Web se precisarem de mais informações e utilizarão os principais resultados da pesquisa na Web para gerar um resumo das informações a apresentar aos utilizadores. Estes resumos incluem citações a páginas Web para ajudar os utilizadores a ver e aceder facilmente às fontes de resultados da pesquisa que ajudaram a fundamentar o resumo de Copilot. Os utilizadores podem clicar nestas ligações para aceder diretamente à origem se quiserem saber mais.
-
Conversar com um sistema de IA através de texto. Os utilizadores podem conversar por chat com o Copilot através de texto e fazer perguntas de seguimento para encontrar novas informações e receber suporte em vários tópicos.
-
Interface com IA através de voz e aspetos. O Copilot não só pode receber entrada de áudio, mas também produzir saídas de áudio numa das quatro vozes selecionadas pelos utilizadores e apresentar um aspeto visual para melhorar a interação. As capacidades de áudio para áudio e aspeto permitem que os utilizadores interajam com o Copilot de uma forma mais natural e fluida.
-
Receber conteúdo de notícias digerível. Os utilizadores podem utilizar o Copilot para receber um resumo de notícias, meteorologia e outras atualizações com base em áreas de tópicos selecionadas através da funcionalidade Diário Copilot e ouvir estes briefings num formato semelhante a um podcast. Esta funcionalidade irá solicitar conteúdo de origens autorizadas que tenham contratos com a Microsoft.
-
Obtenha ajuda para gerar novas ideias. Sempre que os utilizadores interagem com a experiência Copilot, verão um conjunto de cartões em que podem clicar para começar a conversar com o Copilot sobre tópicos úteis e interessantes. Se os utilizadores interagirem com outros serviços de consumidor da Microsoft, os cartões serão personalizados, de acordo com as nossas políticas de privacidade. Ao longo do tempo, os cartões no Copilot podem ser personalizados com base no histórico de conversas de um utilizador. Os utilizadores podem optar ativamente por não participar na personalização em qualquer altura nas definições.
-
Gerar conteúdo criativo. Ao conversar com Copilot, os utilizadores podem criar novos poemas, piadas, histórias, imagens e outros conteúdos com a ajuda da experiência Copilot. O Copilot também pode editar imagens carregadas pelos utilizadores, se solicitado.
-
Realizar tarefas no Android.Os utilizadores podem interagir com o Copilot através da plataforma Android através de voz para realizar determinadas tarefas. Estas tarefas são definir temporizadores e alarmes, fazer chamadas telefónicas, enviar mensagens SMS e encomendar uma Uber. Os utilizadores têm de confirmar a chamada telefónica, a mensagem SMS e a encomenda Uber antes de as tarefas serem concluídas.
-
Ajudar na pesquisa. O Copilot pode realizar tarefas de pesquisa ao apresentar recursos aprofundados, oferecer discriminações detalhadas de tópicos e ligar a origens para ajudar os utilizadores a ir além das respostas rápidas para consultas mais complexas. O Copilot pode gerar proativamente sugestões de pesquisa personalizadas para os utilizadores com base em coisas como consultas de pesquisa anteriores e memória copilot. Os utilizadores podem optar ativamente por não participar na personalização ou notificações em qualquer altura nas definições.
-
Explore o mundo com Visão do Copilot. O Copilot pode ver o seu ecrã ou feed de câmara móvel e utilizar a respetiva voz para responder a perguntas e interagir consigo. O Copilot pode analisar, analisar e oferecer instantaneamente informações e sugestões em tempo real para o ajudar enquanto trabalha, navega ou explora o mundo. Visão do Copilot está disponível no Edge, Windows, iOS e Android.
Considerações ao escolher outros casos de utilização
Incentivamos os utilizadores a rever todo o conteúdo antes de tomarem decisões ou agirem com base nas respostas da Copilot, uma vez que a IA pode cometer erros. Além disso, existem determinados cenários que recomendamos evitar ou que vão contra os nossos Termos de Utilização. Por exemplo, a Microsoft não permite que o Copilot seja utilizado em relação a atividades ilegais ou para qualquer finalidade destinada a promover atividades ilegais.
Limitações
Os modelos de linguagem, imagem e áudio subjacentes à experiência Copilot podem incluir dados de preparação que podem refletir preconceitos sociais, o que, por sua vez, pode potencialmente fazer com que Copilot se comporte de formas que são consideradas injustas, pouco fiáveis ou ofensivas. Apesar da nossa preparação intensiva de modelos e da otimização da segurança, bem como da implementação dos controlos de IA responsáveis e dos sistemas de segurança que colocamos nos dados de preparação, nos pedidos dos utilizadores e nas saídas de modelos, os serviços orientados para IA são falíveis e probabilísticos. Isto torna um desafio bloquear de forma abrangente todo o conteúdo inadequado, levando a riscos que potenciais preconceitos, estereótipos, ingroundedness ou outros tipos de danos que possam aparecer em conteúdos gerados pela IA. Algumas das formas como essas limitações podem manifestar-se na experiência Copilot estão listadas aqui.
-
Estereotipagem: A experiência Copilot pode potencialmente reforçar estereótipos. Por exemplo, ao traduzir "Ele é enfermeiro" e "Ela é médica" numa língua sem género como o turco e depois voltar ao inglês, Copilot pode inadvertidamente produzir os resultados estereotipados (e incorretos) de "Ela é enfermeira" e "Ele é médico". Outro exemplo é quando gera uma imagem baseada no pedido "Crianças sem pai", o sistema poderia gerar imagens de crianças de apenas uma raça ou etnia, reforçando estereótipos nocivos que poderiam existir em imagens publicamente disponíveis usadas para preparar os modelos subjacentes. O Copilot também pode reforçar estereótipos com base nos conteúdos na imagem de entrada do utilizador, baseando-se em componentes da imagem e fazendo suposições que podem não ser verdadeiras. Implementámos mitigações para reduzir o risco de conteúdo que contém estereótipos ofensivos, incluindo classificadores de entrada e saída, modelos otimizados e mensagens do sistema.
-
Sobre-representação e sub-representação: Copilot pode potencialmente sobre-representar grupos de pessoas ou mesmo não representá-los de todo, nas suas respostas. Por exemplo, se os pedidos de texto que contêm a palavra "gay" forem detetados como potencialmente prejudiciais ou ofensivos, isso pode levar à subrepresentação de gerações legítimas sobre a comunidade LGBTQIA+. Além de incluir classificadores de entrada e saída, modelos otimizados, bem como mensagens do sistema, utilizamos o melhoramento de pedidos no Designer como uma das várias mitigações para reduzir o risco de conteúdo que sobre-representa grupos de pessoas.
-
Conteúdo inadequado ou ofensivo: a experiência Copilot pode potencialmente produzir outros tipos de conteúdo inapropriado ou ofensivo. Os exemplos incluem a capacidade de gerar conteúdo numa modalidade (por exemplo, áudio) inadequada no contexto do pedido ou quando comparada com a mesma saída numa modalidade diferente (por exemplo, texto). Outros exemplos incluem imagens geradas por IA que potencialmente contêm artefactos prejudiciais, como símbolos de ódio, conteúdos relacionados com tópicos contestados, controversos ou ideologicamente polarizados, e conteúdo sexualmente carregado que escapa a filtros de conteúdo relacionados sexualmente. Implementámos mitigações para reduzir o risco de gerações que contêm conteúdo inadequado ou ofensivo, como classificadores de entrada e saída, modelos otimizados e mensagens do sistema.
-
Fiabilidade da informação: embora o Copilot pretenda responder com origens fiáveis sempre que necessário, a IA pode cometer erros. Poderia potencialmente gerar conteúdo sem sentido ou fabricar conteúdo que pudesse parecer razoável, mas factualmente impreciso. Mesmo ao obter respostas de dados Web de alta autoridade, as respostas podem deturpar esse conteúdo de uma forma que pode não ser completamente precisa ou fiável. Relembramos aos utilizadores através da interface de utilizador e, em documentação como esta, que o Copilot pode cometer erros. Também continuamos a educar os utilizadores sobre as limitações da IA, como encorajá-los a verificar novamente os factos antes de tomar decisões ou agir com base nas respostas da Copilot. Quando os utilizadores interagem com o Copilot através de texto, este tentará basear-se em dados Web de alta qualidade para reduzir o risco de as gerações não estarem encalhadas.
-
Desempenho multilingue: pode haver variações no desempenho entre idiomas, com o melhor desempenho em inglês no momento do lançamento do Copilot atualizado. A melhoria do desempenho entre idiomas é uma área de investimento fundamental e os modelos recentes levaram a um melhor desempenho.
-
Limitações de áudio: os modelos de áudio podem introduzir outras limitações. Em termos gerais, a qualidade acústica dos erros de entrada de voz, ruído sem voz, vocabulário, acentos e erros de inserção também pode afetar se Copilot processa e responde à entrada de áudio de um utilizador de uma forma satisfatória. Além disso, uma vez que os pedidos do utilizador ao utilizar o Copilot Voice não irão acionar pesquisas na Web, a Copilot poderá não conseguir responder aos eventos atuais no modo de voz.
-
Dependência da conectividade à Internet: a experiência copilot atualizada depende da conectividade à Internet para funcionar. As interrupções na conectividade podem ter um impacto na disponibilidade e no desempenho do serviço.
Desempenho do sistema
Em muitos sistemas de IA, o desempenho é muitas vezes definido em relação à precisão (ou seja, com que frequência o sistema de IA oferece uma predição ou saída correta). Com a Copilot, estamos focados no Copilot como uma assistente com tecnologia de IA que reflete as preferências do utilizador. Por conseguinte, dois utilizadores diferentes podem olhar para a mesma saída e ter opiniões diferentes sobre como é útil ou relevante para a sua situação e expetativas únicas, o que significa que o desempenho destes sistemas tem de ser definido de forma mais flexível. Consideramos amplamente o desempenho para significar que a aplicação funciona como os utilizadores esperam.
Melhores práticas para melhorar o desempenho do sistema
Interaja com a interface através de linguagem natural e conversacional. Interagir com o Copilot de uma forma confortável para o utilizador é fundamental para obter melhores resultados através da experiência. Semelhante à adoção de técnicas para ajudar as pessoas a comunicar eficazmente no seu dia-a-dia, interagir com Copilot como um assistente com tecnologia de IA, seja através de texto ou voz que seja familiar ao utilizador, pode ajudar a obter melhores resultados.
Experiência e adoção do utilizador. A utilização eficaz do Copilot requer que os utilizadores compreendam as suas capacidades e limitações. Pode haver uma curva de aprendizagem e os utilizadores podem querer referenciar vários recursos da Copilot (por exemplo, este documento e as nossas FAQs do Copilot) para interagir e beneficiar eficazmente do serviço.
Mapeamento, medição e gestão de riscos
Tal como outras tecnologias transformacionais, tirar partido dos benefícios da IA não é isento de riscos e uma parte fundamental do programa de IA Responsável da Microsoft foi concebida para identificar e mapear potenciais riscos, medir esses riscos e geri-los ao criar mitigações e melhorar continuamente o Copilot ao longo do tempo. Nas secções abaixo, descrevemos a nossa abordagem iterativa para mapear, medir e gerir potenciais riscos.
Mapa: o planeamento cuidadoso e os testes adversos de pré-implementação, como o agrupamento vermelho, ajudam-nos a mapear potenciais riscos. Os modelos subjacentes que alimentam a experiência Copilot passaram por testes de equipas vermelhas de técnicos de teste que representam perspetivas multidisciplinares em áreas de tópico relevantes. Este teste foi concebido para avaliar como a tecnologia mais recente funcionaria com e sem quaisquer salvaguardas adicionais aplicadas à mesma. A intenção destes exercícios ao nível do modelo é produzir respostas nocivas, criar potenciais vias de utilização indevida e identificar capacidades e limitações.
Antes de disponibilizar publicamente a experiência Copilot numa pré-visualização de versão limitada, também realizamos o agrupamento vermelho ao nível da aplicação para avaliar o Copilot quanto a deficiências e vulnerabilidades. Este processo ajudou-nos a compreender melhor como o sistema poderia ser utilizado por uma grande variedade de utilizadores e ajudou-nos a melhorar as nossas mitigações.
Medida: Além de avaliar o Copilot em relação às nossas avaliações de segurança existentes, a utilização do agrupamento vermelho descrito acima ajudou-nos a desenvolver avaliações e métricas de IA responsáveis correspondentes a riscos potenciais identificados, tais como jailbreaks, conteúdo prejudicial e conteúdo não encalhada.
Recolhemos dados de conversação direcionados para estes riscos, utilizando uma combinação de participantes humanos e um pipeline de geração de conversação automatizado. Em seguida, cada avaliação é classificada por um conjunto de anotadores humanos preparados ou por um pipeline de anotação automatizada. Sempre que o produto é alterado, as mitigações existentes são atualizadas ou são propostas novas mitigações, atualizamos os nossos pipelines de avaliação para avaliar o desempenho do produto e as métricas de IA responsáveis. Estes pipelines de contexto de avaliação automatizada são uma combinação de conversações recolhidas com avaliadores humanos e conversações sintéticas geradas com LLMs pedidas para testar políticas de forma adversa. Cada uma destas avaliações de segurança é classificada automaticamente com LLMs. Para as avaliações recentemente desenvolvidas, cada avaliação é inicialmente classificada por etiquetas humanas que leem o conteúdo do texto ou ouvem a saída de áudio e, em seguida, são convertidas em avaliações automáticas baseadas em LLM.
O comportamento pretendido dos nossos modelos em combinação com os nossos pipelines de avaliação , tanto humanos como automatizados, permite-nos efetuar rapidamente medições para potenciais riscos em escala. À medida que identificamos novos problemas ao longo do tempo, continuamos a expandir os conjuntos de medição para avaliar riscos adicionais.
Gerir: à medida que identificámos potenciais riscos e utilização indevida através do agrupamento vermelho e os medimos com as abordagens descritas acima, desenvolvemos mitigações adicionais específicas da experiência Copilot. Abaixo, descrevemos algumas dessas mitigações. Continuaremos a monitorizar a experiência copilot para melhorar o desempenho do produto e a nossa abordagem de mitigação de riscos.
-
Planos de lançamento faseados e avaliação contínua. Estamos empenhados em aprender e melhorar continuamente a nossa abordagem de IA responsável à medida que as nossas tecnologias e o comportamento dos utilizadores evoluem. A nossa estratégia de lançamento incremental tem sido uma parte fundamental da forma como movemos a nossa tecnologia de forma segura do laboratório para o mundo, e estamos empenhados num processo deliberado e atencioso para garantir os benefícios da experiência Copilot. Estamos a fazer alterações à Copilot regularmente para melhorar o desempenho do produto e as mitigações existentes e implementar novas mitigações em resposta às nossas aprendizagens.
-
Tirar partido dos classificadores e da mensagem do sistema para mitigar potenciais riscos ou utilização indevida. Em resposta a pedidos do utilizador, os LLMs podem produzir conteúdo problemático. Discutimos os tipos de conteúdo que tentamos limitar nas secções Comportamento do Sistema e Limitações acima. Os classificadores e a mensagem do sistema são dois exemplos de mitigações que foram implementadas no Copilot para ajudar a reduzir o risco destes tipos de conteúdo. Os classificadores classificam texto para sinalizar conteúdo potencialmente prejudicial em pedidos do utilizador ou respostas geradas. Também utilizamos as melhores práticas existentes para tirar partido da mensagem do sistema, que envolve dar instruções ao modelo para alinhar o seu comportamento com os princípios de IA da Microsoft e com as expectativas dos utilizadores.
-
Consentimento para carregamentos de imagens copilot. Na primeira vez que um utilizador carregar uma imagem com rostos para a Copilot, ser-lhe-á pedido que dê o seu consentimento para que os dados biométricos sejam carregados para o Copilot. Se um utilizador não optar ativamente por participar, a imagem não será enviada para o Copilot. Todas as imagens, independentemente de conterem ou não rostos, são eliminadas no prazo de 30 dias após o fim da conversação.
-
Divulgação de IA. O Copilot também foi concebido para informar as pessoas de que estão a interagir com um sistema de IA. À medida que os utilizadores interagem com a Copilot, oferecemos vários pontos táteis concebidos para ajudá-los a compreender as capacidades do sistema, divulgar-lhes que o Copilot tem tecnologia de IA e comunicar limitações. A experiência foi concebida desta forma para ajudar os utilizadores a tirar o máximo partido do Copilot e minimizar o risco de dependência excessiva. As divulgações também ajudam os utilizadores a compreender melhor o Copilot e as suas interações com o mesmo.
-
Proveniência dos media. Quando o Copilot gera uma imagem, ativemos uma funcionalidade "Credenciais de Conteúdo", que utiliza métodos criptográficos para marcar a origem, ou "proveniência", de todas as imagens geradas por IA criadas com o Copilot. Esta tecnologia utiliza normas definidas pela Coalition for Content and Authenticity (C2PA) para adicionar uma camada extra de confiança e transparência para imagens geradas por IA.
-
Deteção de conteúdo automatizada. Quando os utilizadores carregam imagens como parte do pedido de chat, a Copilot implementa ferramentas para detetar imagens de exploração sexual infantil e abuso (CSEAI). A Microsoft reporta todos os CSEAI aparentes ao Centro Nacional de Crianças Desaparecidas e Exploradas (NCMEC), conforme exigido pela lei norte-americana. Quando os utilizadores carregam ficheiros para analisar ou processar, a Copilot implementa a análise automatizada para detetar conteúdo que pode levar a riscos ou utilização indevida, como texto que pode estar relacionado com atividades ilegais ou código malicioso.
-
Termos de Utilização e Código de Conduta. Os utilizadores devem respeitar os Termos de Utilização e Código de Conduta aplicáveis da Copilot e o Contrato de Serviços Microsoft e a Declaração de Privacidade da Microsoft, que, entre outras coisas, os informa sobre utilizações permitidas e impermeáveis e as consequências de violar os termos. Os Termos de Utilização também fornecem divulgações adicionais para os utilizadores e servem como referência para os utilizadores saberem mais sobre o Copilot. Os utilizadores que cometem violações graves ou repetidas podem ser suspensos temporariamente ou permanentemente do serviço.
-
Comentários, monitorização e supervisão. A experiência Copilot baseia-se em ferramentas existentes que permitem aos utilizadores submeter feedback, que são revistos pelas equipas de operações da Microsoft. Além disso, a nossa abordagem de mapeamento, medição e gestão de riscos continuará a evoluir à medida que aprendemos mais e já estamos a fazer melhorias com base nos comentários recolhidos durante os períodos de pré-visualização.
Saiba mais sobre a IA responsável
Relatório de Transparência de IA Responsável da Microsoft
Saiba mais sobre Microsoft Copilot
Acerca deste documento
© 2024 Microsoft Corporation. Todos os direitos reservados. Este documento é fornecido "tal como está" e apenas para fins informativos. As informações e vistas expressas neste documento, incluindo o URL e outras referências de Web site da Internet, podem ser alteradas sem aviso prévio. O utilizador assume o risco da utilização. Alguns exemplos são apenas para ilustração e são fictícios. Nenhuma associação real é pretendida ou inferida.
Este documento não se destina a ser e não deve ser interpretado como prestando aconselhamento jurídico. A jurisdição em que está a operar pode ter vários requisitos regulamentares ou legais que se aplicam ao seu sistema de IA. Consulte um especialista em direito se não tiver a certeza sobre leis ou regulamentos que possam aplicar-se ao seu sistema, especialmente se considerar que estas podem afetar estas recomendações. Tenha em atenção que nem todas estas recomendações e recursos serão adequados para todos os cenários e, por outro lado, estas recomendações e recursos podem ser insuficientes para alguns cenários.
Publicado em: 01/10/2024
Última atualização: 01/10/2024