Entrar com a conta da Microsoft
Entrar ou criar uma conta.
Olá,
Selecionar uma conta diferente.
Você tem várias contas
Escolha a conta com a qual você deseja entrar.

Última atualização: fevereiro de 2024

Os conceitos básicos de Copilot no Bing   

Introdução  

Em fevereiro de 2023, a Microsoft lançou o novo Bing, uma experiência de pesquisa na Web aprimorada por IA. Ele dá suporte aos usuários resumindo os resultados da pesquisa na Web e fornecendo uma experiência de chat. Os usuários também podem gerar conteúdo criativo, como poemas, piadas, histórias e, com o Bing Criador de imagens, imagens. O novo Bing aprimorado por IA é executado em uma variedade de tecnologias avançadas da Microsoft e do OpenAI, incluindo GPT-4, um LLM (modelo de linguagem grande) de ponta e DALL-E, um modelo de aprendizado profundo para gerar imagens digitais a partir de descrições de linguagem natural, ambas do OpenAI. Trabalhamos com ambos os modelos por meses antes do lançamento público para desenvolver um conjunto personalizado de recursos e técnicas para ingressar nessa tecnologia de IA de ponta e pesquisa na Web no novo Bing.  Em novembro de 2023, a Microsoft renomeou o novo Bing para Copilot no Bing.

Na Microsoft, levamos a sério nosso compromisso com a IA responsável. A experiência Copilot no Bing foi desenvolvida de acordo com os Princípios de IA da Microsoft, o Padrão responsável de IA da Microsoft e em parceria com especialistas responsáveis em IA em toda a empresa, incluindo o Office of Responsible AI da Microsoft, nossas equipes de engenharia, Microsoft Research e Aether. Você pode saber mais sobre IA responsável na Microsoft aqui.  

Neste documento, descrevemos nossa abordagem para IA responsável para Copilot no Bing. Antes do lançamento, adotamos métodos de última geração para identificar, medir e mitigar possíveis riscos e uso indevido do sistema e garantir seus benefícios para os usuários. À medida que continuamos a evoluir o Copilot no Bing desde o lançamento, também continuamos a aprender e melhorar nossos esforços responsáveis de IA. Este documento será atualizado periodicamente para comunicar nossos processos e métodos em evolução.   

Termos-chave  

Copilot no Bing é uma experiência de pesquisa na Web aprimorada por IA. À medida que é executado em uma nova tecnologia poderosa, começamos definindo alguns termos-chave.  

Modelos de machine learning que ajudam a classificar dados em classes rotuladas ou categorias de informações. No Copilot no Bing, uma maneira pela qual usamos classificadores é ajudar a detectar conteúdo potencialmente prejudicial enviado pelos usuários ou gerado pelo sistema para mitigar a geração desse conteúdo e uso indevido ou abuso do sistema. 

O co-piloto no Bing é fundamentado nos resultados da pesquisa na Web quando os usuários estão buscando informações. Isso significa que centralizamos a resposta fornecida à consulta ou solicitação de um usuário sobre conteúdo de alto escalão da Web e fornecemos links para sites para que os usuários possam saber mais. O Bing classifica o conteúdo da pesquisa na Web por recursos altamente ponderados, como relevância, qualidade e credibilidade e atualização. Descrevemos esses conceitos com mais detalhes em How Bing Delivers Pesquisa Results (consulte "Qualidade e Credibilidade" em "Como o Bing classifica Pesquisa resultados").   

Consideramos respostas fundamentadas como respostas do Copilot no Bing nas quais as instruções são suportadas por informações contidas em fontes de entrada, como resultados de pesquisa na Web da consulta ou prompt, base de dados de conhecimento do Bing de informações verificadas por fatos e, para a experiência de chat, histórico de conversas recente do chat. Respostas não em primeiro plano são aquelas em que uma instrução não é fundamentada nessas fontes de entrada.  

Os LLMs (grandes modelos de linguagem) neste contexto são modelos de IA treinados em grandes quantidades de dados de texto para prever palavras em sequências. As LLMs são capazes de executar uma variedade de tarefas, como geração de texto, resumo, tradução, classificação e muito mais.  

O metaprompt é um programa que serve para orientar o comportamento do sistema. Partes do metaprompt ajudam a alinhar o comportamento do sistema com os Princípios de IA da Microsoft e as expectativas do usuário. Por exemplo, o metaprompt pode incluir uma linha como "comunicar-se na linguagem de escolha do usuário".  

Um método ou combinação de métodos projetados para reduzir riscos potenciais que podem surgir do uso de recursos controlados por IA no Copilot no Bing.  

Texto, voz, imagens e/ou outras consultas habilitadas que um usuário envia ao Bing como uma entrada para o modelo que alimenta novas experiências generativas orientadas por IA no Bing. Por exemplo, um usuário pode inserir o seguinte prompt:  

"Estou planejando uma viagem para nosso aniversário em setembro. Quais são alguns lugares que podemos ir que estão dentro de um vôo de 3 horas de Londres Heathrow?”  

O texto que um usuário envia ao Bing da barra de pesquisa para pesquisa na Web. Neste documento, distinguemos uma consulta (para pesquisa na Web) de um prompt (para experiências generativas orientadas por IA no Bing). Por exemplo, um usuário pode inserir a seguinte consulta para pesquisar na Web:  

"destinos de viagem perto do aeroporto de Heathrow, em Londres"  

Técnicas usadas por especialistas para avaliar as limitações e vulnerabilidades de um sistema e testar a eficácia das mitigações planejadas. O teste de equipe vermelha e o teste de estresse são usados para identificar riscos potenciais e são distintos da medição sistemática dos riscos.   

O texto, imagem, gráficos etc. que Copilot no Bing gera em resposta a um prompt. Sinônimos de "resposta" incluem "conclusão", "geração" e "resposta". Por exemplo, o Bing pode fornecer a seguinte resposta ao prompt que usamos na definição de 'prompt' acima:   

"Parabéns pelo seu aniversário! Há muitos lugares que você pode ir que estão dentro de um vôo de 3 horas de Londres Heathrow. De acordo com uma fonte, algumas das fugas do fim de semana dentro de três horas de avião de Londres são Bilbao, Copenhague, Reykjavik e Estocolmo 1, 2. Outra fonte sugere que alguns dos melhores lugares para ir na Europa em setembro são Cracóvia, Florença e Lisboa 3, 4. Você também pode marcar os voos diretos de Londres Heathrow para vários destinos e ver o que lhe atrai 5. Espero que tenha uma viagem maravilhosa!”  

Usos pretendidos e novas experiências de IA  

O copiloto nos usos pretendidos do Bing é conectar usuários com resultados de pesquisa relevantes, examinar resultados de toda a Web para encontrar e resumir respostas que os usuários estão procurando, ajudar os usuários a refinar suas pesquisas para obter respostas com uma experiência de chat e gerar criatividade ajudando os usuários a criar conteúdo. Copilot nas experiências de IA generativas do Bing abaixo dão suporte ao objetivo de ser um copiloto movido a IA para a Web.  

Resumo. Quando os usuários enviam uma consulta de pesquisa no Copilot no Bing, o sistema Bing processa a consulta, realiza uma ou mais pesquisas na Web e usa os principais resultados de pesquisa na Web para gerar um resumo das informações a serem apresentadas aos usuários. Esses resumos incluem referências para ajudar os usuários a ver e acessar facilmente os resultados da pesquisa usados para ajudar a fundamentar o resumo. Os resumos podem aparecer no lado direito da página de resultados da pesquisa e na experiência de chat.  

Experiência de chat. Além da resumição, os usuários podem conversar com Copilot no sistema Bing por meio de texto, imagem ou entrada de voz, fazer perguntas de acompanhamento para esclarecer pesquisas e encontrar novas informações e enviar prompts para gerar conteúdo criativo. As referências também são incluídas na experiência de chat quando Copilot no Bing está resumindo os resultados da pesquisa na resposta.   

Geração de conteúdo criativo. Na experiência de chat e na página de pesquisa, os usuários podem criar poemas, piadas, histórias, imagens e outros conteúdos com a ajuda de Copilot no Bing.  As imagens são criadas por Designer (o antigo Criador de imagens do Bing) e os usuários podem acessar o recurso por meio de Designer página inicial, bem como da página Copilot. 

Como funciona Copilot no Bing?  

Com o Copilot no Bing, desenvolvemos uma abordagem inovadora para levar LLMs de última geração à pesquisa na Web. Quando um usuário insere um prompt no Copilot no Bing, o prompt, o histórico de conversas recente, o metaprompt e os principais resultados de pesquisa são enviados como entradas para a LLM. O modelo gera uma resposta usando o histórico de conversas rápida e recente do usuário para contextualizar a solicitação, o metaprompt para alinhar respostas com os Princípios de IA da Microsoft e as expectativas do usuário e os resultados da pesquisa para obter respostas básicas no conteúdo existente e de alto escalão da Web.   

As respostas são apresentadas aos usuários em vários formatos diferentes, como links tradicionais para conteúdo da Web, resumos gerados por IA, imagens e respostas de chat. Resumos e respostas de chat que dependem de resultados de pesquisa na Web incluirão referências e uma seção "Saiba mais" abaixo das respostas, com links para resultados de pesquisa que foram usados para aterrar a resposta. Os usuários podem clicar nesses links para saber mais sobre um tópico e as informações usadas para aterrar o resumo ou a resposta de chat.    

Na experiência Copilot, os usuários podem executar pesquisas na Web conversando, adicionando contexto ao prompt e interagindo com as respostas do sistema para especificar ainda mais seus interesses de pesquisa. Por exemplo, um usuário pode fazer perguntas de acompanhamento, solicitar informações adicionais de esclarecimento ou responder ao sistema de forma conversacional. Na experiência de chat, os usuários também podem selecionar uma resposta de sugestões pré-escritas, que chamamos de sugestões de chat. Esses botões aparecem após cada resposta de Copilot e fornecem prompts sugeridos para continuar a conversa dentro da experiência de chat. As sugestões de chat também aparecem junto com o conteúdo resumido na página de resultados da pesquisa como um ponto de entrada para a experiência de chat.  

Copiloto no Bing também permite que um usuário crie histórias, poemas, letras de música e imagens com a ajuda de Bing. Quando o Copilot no Bing detecta a intenção do usuário de gerar conteúdo criativo (por exemplo, o prompt começa com "write me a ..."), o sistema gerará, na maioria dos casos, conteúdo responsivo ao prompt do usuário. Da mesma forma, quando Copilot no Bing detecta a intenção do usuário de gerar uma imagem (por exemplo, o prompt começa com "desenhar um ..."), o sistema gerará, na maioria dos casos, uma imagem responsiva ao prompt do usuário. No Visual Pesquisa na experiência de Chat, com uma imagem tirada pela câmera do usuário, carregada do dispositivo do usuário ou vinculada da Web, os usuários podem solicitar ao Copilot no Bing para entender o contexto, interpretar e responder perguntas sobre a imagem.  Os usuários também podem carregar seus arquivos no Copilot para interpretar, converter, processar ou calcular informações deles. Na experiência Microsoft Designer que os usuários podem acessar por meio do Copilot no Bing, os usuários podem não apenas gerar imagens usando prompts, mas também redimensioná-las ou reestilizá-las, ou tornar edições como desfocar o plano de fundo ou tornar as cores mais vívidas. 

Os usuários com contas da Microsoft (MSA) agora também têm a opção de assinar Copilot Pro que oferece uma experiência aprimorada, incluindo desempenho acelerado, criação mais rápida de imagem de IA e, em breve, a capacidade de criar seus próprios GPTs copilot. Copilot Pro está disponível atualmente em países limitados, e planejamos disponibilizar Copilot Pro em mais mercados em breve.

Na experiência Copilot, os usuários podem acessar GPTs copilot. Um GPT copilot, como Designer GPT, é uma versão personalizada do Microsoft Copilot em um tópico que é de particular interesse para você, como fitness, viagens e culinária, que pode ajudar a transformar ideias vagas ou gerais em prompts mais específicos com saídas, incluindo textos e imagens. Em Copilot, os usuários podem ver GPTs copilot disponíveis e os usuários com contas Copilot Pro em breve terão acesso ao Copilot GPT Builder, um recurso que permite que os usuários criem e configurem um GPT de Copilot personalizado. As mitigações de IA responsável mencionadas acima para Copilot no Bing se aplicam a GPTs copilot.

Para saber mais sobre como os GPTs Copilot Pro e Copilot funcionam, visite aqui.

O Copilot no Bing se esforça para fornecer resultados de pesquisa diversos e abrangentes com seu compromisso de liberar e abrir o acesso às informações. Ao mesmo tempo, nossos esforços de qualidade do produto incluem trabalhar para evitar promover inadvertidamente conteúdo potencialmente prejudicial aos usuários. Mais informações sobre como o Bing classifica o conteúdo, incluindo como ele define relevância e a qualidade e credibilidade de uma página da Web, estão disponíveis nas "Diretrizes do Webmaster do Bing".   Mais informações sobre os princípios de moderação de conteúdo do Bing estão disponíveis em "Como o Bing fornece resultados de pesquisa".   

Na experiência Copilot no Windows, o Copilot no Bing pode trabalhar com o sistema operacional Windows para fornecer habilidades específicas do Windows, como alterar o tema ou plano de fundo do usuário e alterar configurações como áudio, Bluetooth e rede. Essas experiências permitem que o usuário configure suas configurações e melhore sua experiência de usuário usando prompts de linguagem natural para a LLM. A funcionalidade específica do aplicativo também pode ser fornecida de plug-ins de aplicativos de terceiros. Elas podem automatizar tarefas repetitivas e obter maior eficiência do usuário. Como as LLMs podem ocasionalmente cometer erros, os prompts de confirmação de usuário apropriados são fornecidos para que o usuário seja o árbitro final das alterações que podem ser feitas. 

Identificar, medir e mitigar riscos  

Como outras tecnologias transformadoras, aproveitar os benefícios da IA não é livre de riscos e uma parte central do programa de IA Responsável da Microsoft é projetada para identificar riscos potenciais, medir sua propensão a ocorrer e criar mitigações para resolvê-los. Guiados por nossos Princípios de IA e nosso Padrão responsável de IA, buscamos identificar, medir e mitigar riscos potenciais e uso indevido de Copilot no Bing, garantindo os usos transformadores e benéficos que a nova experiência fornece. Nas seções abaixo, descrevemos nossa abordagem iterativa para identificar, medir e mitigar riscos potenciais.   

No nível do modelo, nosso trabalho começou com análises exploratórias de GPT-4 no final do verão de 2022. Isso incluiu a realização de extensos testes de equipe vermelha em colaboração com o OpenAI. Este teste foi projetado para avaliar como a tecnologia mais recente funcionaria sem quaisquer proteções adicionais aplicadas a ela. Nossa intenção específica neste momento era produzir respostas prejudiciais, criar caminhos potenciais para uso indevido e identificar funcionalidades e limitações. Nossos aprendizados combinados no OpenAI e na Microsoft contribuíram para os avanços no desenvolvimento de modelos e, para nós, na Microsoft, informamos nossa compreensão dos riscos e contribuímos para estratégias de mitigação precoces para Copilot no Bing.  

Além do teste de equipe vermelha no nível do modelo, uma equipe multidisciplinar de especialistas realizou várias rodadas de testes de equipe vermelha no nível do aplicativo em Copilot em Bing AI experiências antes de disponibilizá-los publicamente em nossa versão prévia limitada. Esse processo nos ajudou a entender melhor como o sistema poderia ser explorado por atores adversários e melhorar nossas mitigações. Os testadores de estresse não adversários também avaliaram extensivamente novos recursos do Bing para deficiências e vulnerabilidades. Após o lançamento, as novas experiências de IA no Bing são integradas à infraestrutura de teste e medição de produção existente da organização de engenharia do Bing. Por exemplo, testadores de equipe vermelha de diferentes regiões e origens tentam comprometer continuamente e sistematicamente o sistema e suas descobertas são usadas para expandir os conjuntos de dados que o Bing usa para melhorar o sistema.  

O teste de equipe vermelha e o teste de estresse podem apresentar instâncias de riscos específicos, mas em produção os usuários terão milhões de tipos diferentes de conversas com Copilot no Bing. Além disso, as conversas são multi-turno e contextuais, e identificar conteúdo prejudicial dentro de uma conversa é uma tarefa complexa. Para entender e abordar melhor o potencial de riscos no Copilot em experiências Bing AI, desenvolvemos métricas de IA responsáveis adicionais específicas para essas novas experiências de IA para medir riscos potenciais, como jailbreaks, conteúdo prejudicial e conteúdo não em primeiro plano. Também habilitamos a medição em escala por meio de pipelines de medição parcialmente automatizados. Sempre que o produto é alterado, mitigações existentes são atualizadas ou novas mitigações são propostas, atualizamos nossos pipelines de medição para avaliar o desempenho do produto e as métricas de IA responsáveis.  

Como exemplo ilustrativo, o pipeline de medição parcialmente automatizado atualizado para conteúdo prejudicial inclui duas grandes inovações: simulação de conversa e anotação automatizada de conversa verificada pelo homem. Primeiro, especialistas responsáveis em IA criaram modelos para capturar a estrutura e o conteúdo das conversas que poderiam resultar em diferentes tipos de conteúdo prejudicial. Esses modelos foram então dados a um agente de conversa que interagia como um usuário hipotético com Copilot no Bing, gerando conversas simuladas. Para identificar se essas conversas simuladas continham conteúdo prejudicial, tomamos diretrizes que normalmente são usadas por linguistas especialistas para rotular dados e modificá-los para uso por GPT-4 rotular conversas em escala, refinando as diretrizes até que houvesse um acordo significativo entre conversas rotuladas por modelo e conversas rotuladas por humanos. Por fim, usamos as conversas rotuladas por modelo para calcular uma métrica de IA responsável que captura a eficácia do Copilot no Bing na mitigação de conteúdo prejudicial.   

Nossos pipelines de medição nos permitem executar rapidamente a medição para possíveis riscos em escala. À medida que identificamos novos problemas durante o período de visualização e os testes contínuos da equipe vermelha, continuamos a expandir os conjuntos de medidas para avaliar riscos adicionais.  

À medida que identificamos riscos potenciais e uso indevido por meio de processos como teste de equipe vermelha e teste de estresse e os medimos com as abordagens inovadoras descritas acima, desenvolvemos mitigações adicionais para aqueles usados para pesquisa tradicional. Abaixo, descrevemos algumas dessas mitigações. Continuaremos monitorando o Copilot em Bing AI experiências para melhorar o desempenho e as mitigações do produto.  

Versão em fases, avaliação contínua. Estamos comprometidos em aprender e melhorar nossa abordagem de IA responsável continuamente à medida que nossas tecnologias e comportamento do usuário evoluem. Nossa estratégia de lançamento incremental tem sido uma parte central de como movemos nossa tecnologia com segurança dos laboratórios para o mundo, e estamos comprometidos com um processo deliberado e atencioso para garantir os benefícios do Copilot no Bing. Limitar o número de pessoas com acesso durante o período de visualização nos permitiu descobrir como as pessoas usam Copilot no Bing, incluindo como as pessoas podem usá-lo indevidamente, para que possamos tentar mitigar questões emergentes antes da liberação mais ampla. Por exemplo, estamos exigindo que os usuários se autentiquem usando sua conta Microsoft antes de acessar a nova experiência do Bing completa. Usuários não autenticados podem acessar apenas uma visualização limitada da experiência. Essas etapas desencorajam o abuso e nos ajudam a (conforme necessário) tomar as medidas apropriadas em resposta às violações do Código de Conduta.  Estamos fazendo alterações no Copilot no Bing diariamente para melhorar o desempenho do produto, melhorar as mitigações existentes e implementar novas mitigações em resposta aos nossos aprendizados durante o período de visualização.  

Aterramento nos resultados da pesquisa. Conforme observado acima, o Copilot no Bing foi projetado para fornecer respostas compatíveis com as informações nos resultados da pesquisa na Web quando os usuários estão buscando informações. Por exemplo, o sistema é fornecido com texto dos principais resultados e instruções de pesquisa por meio do metaprompt para aterrar sua resposta. No entanto, ao resumir o conteúdo da Web, o Copilot no Bing pode incluir informações em sua resposta que não estão presentes em suas fontes de entrada. Em outras palavras, ele pode produzir resultados não encalhados. Nossas avaliações iniciais indicaram que os resultados não encalhados no chat podem ser mais prevalentes para determinados tipos de prompts ou tópicos do que outros, como pedir cálculos matemáticos, informações financeiras ou de mercado (por exemplo, ganhos da empresa, dados de desempenho de ações) e informações como datas precisas de eventos ou preços específicos de itens. Os usuários devem sempre ter cuidado e usar seu melhor julgamento ao exibir resultados de pesquisa resumidos, seja na página de resultados da pesquisa ou na experiência de chat. Tomamos várias medidas para atenuar o risco de que os usuários possam confiar demais em conteúdo gerado sem solo em cenários de resumo e experiências de chat. Por exemplo, as respostas no Copilot no Bing baseadas nos resultados da pesquisa incluem referências aos sites de origem para os usuários verificarem a resposta e saberem mais. Os usuários também recebem um aviso explícito de que estão interagindo com um sistema de IA e aconselhados a marcar os materiais de origem do resultado da Web para ajudá-los a usar seu melhor julgamento.  

Classificadores baseados em IA e metaprompting para mitigar possíveis riscos ou uso indevido. O uso de LLMs pode produzir conteúdo problemático que pode levar a riscos ou uso indevido. Exemplos podem incluir a saída relacionada à auto-mutilação, violência, conteúdo gráfico, propriedade intelectual, informações imprecisas, fala odiosa ou texto que possa se relacionar com atividades ilegais. Classificadores e metaprompting são dois exemplos de mitigações que foram implementadas em Copilot no Bing para ajudar a reduzir o risco desses tipos de conteúdo. Os classificadores classificam o texto para sinalizar diferentes tipos de conteúdo potencialmente prejudicial em consultas de pesquisa, prompts de chat ou respostas geradas. O Bing usa classificadores baseados em IA e filtros de conteúdo, que se aplicam a todos os resultados da pesquisa e recursos relevantes; criamos classificadores de prompt adicionais e filtros de conteúdo especificamente para resolver possíveis riscos gerados pelo Copilot nos recursos do Bing. Os sinalizadores levam a possíveis mitigações, como não retornar o conteúdo gerado para o usuário, desviar o usuário para um tópico diferente ou redirecionar o usuário para a pesquisa tradicional. O metaprompting envolve dar instruções ao modelo para orientar seu comportamento, inclusive para que o sistema se comporte de acordo com os Princípios de IA da Microsoft e as expectativas do usuário. Por exemplo, o metaprompt pode incluir uma linha como "comunicar-se na linguagem de escolha do usuário".   

Proteção da privacidade no Visual Pesquisa em Copilot no Bing. Quando os usuários carregam uma imagem como parte de seu prompt de chat, o Copilot no Bing empregará a tecnologia de desfoque facial antes de enviar a imagem para o modelo de IA. O desfoque facial é usado para proteger a privacidade dos indivíduos na imagem. A tecnologia de desfoque facial depende de pistas de contexto para determinar onde desfocar e tentará desfocar todas as faces. Com os rostos desfocados, o modelo de IA pode comparar a imagem inserida com as de imagens disponíveis publicamente na Internet. Como resultado, por exemplo, Copilot em Bing pode ser capaz de identificar um jogador de basquete famoso a partir de uma foto desse jogador em uma quadra de basquete criando uma representação numérica que reflete o número da camisa do jogador, cor da camisa, a presença de uma cesta de basquete, etc. O copiloto no Bing não armazena representações numéricas de pessoas de imagens carregadas e não as compartilha com terceiros. Copiloto no Bing usa representações numéricas das imagens que os usuários carregam apenas com a finalidade de responder aos prompts dos usuários e, em seguida, eles são excluídos dentro de 30 dias após o término do chat.    

Se o usuário pedir ao Copilot no Bing informações sobre uma imagem carregada, as respostas de chat poderão refletir o impacto do desfoque facial na capacidade do modelo de fornecer informações sobre a imagem carregada. Por exemplo, Copilot no Bing pode descrever alguém como tendo um rosto desfocado.    

Limitando a deriva de conversa. Durante o período de visualização, aprendemos que sessões de chat muito longas podem resultar em respostas repetitivas, inúteis ou inconsistentes com Copilot no tom pretendido por Bing. Para resolver esse desvio de conversa, limitamos o número de turnos (trocas que contêm uma pergunta do usuário e uma resposta de Copilot no Bing) por sessão de chat. Continuamos avaliando abordagens adicionais para mitigar esse problema.  

Enriquecimento de prompt. Em alguns casos, o prompt de um usuário pode ser ambíguo. Quando isso acontece, o Copilot no Bing pode usar a LLM para ajudar a criar mais detalhes no prompt para ajudar a garantir que os usuários obtenham a resposta que estão buscando. Esse enriquecimento de prompt não depende de nenhum conhecimento do usuário ou de suas pesquisas anteriores, mas sim do modelo de IA. Essas consultas revisadas ficarão visíveis no histórico de chat do usuário e, como outras pesquisas, podem ser excluídas usando controles no produto.  

O design centrado no usuário e intervenções de experiência do usuário. O design centrado no usuário e as experiências do usuário são um aspecto essencial da abordagem da Microsoft para a IA responsável. O objetivo é raiz do design do produto nas necessidades e expectativas dos usuários. À medida que os usuários interagem com Copilot no Bing pela primeira vez, oferecemos vários pontos de toque projetados para ajudá-los a entender os recursos do sistema, revelar a eles que o Copilot no Bing é alimentado por IA e comunicar limitações. A experiência foi projetada dessa forma para ajudar os usuários a aproveitar ao máximo o Copilot no Bing e minimizar o risco de dependência excessiva. Elementos da experiência também ajudam os usuários a entender melhor o Copilot no Bing e suas interações com ela. Elas incluem sugestões de chat específicas para IA responsável (por exemplo, como o Bing usa a IA? Por que Copilot no Bing não responde em alguns tópicos?), explicações sobre limitações, maneiras pelas quais os usuários podem aprender mais sobre como o sistema funciona e relatar comentários e referências facilmente navegáveis que aparecem em respostas para mostrar aos usuários os resultados e páginas em que as respostas são fundamentadas.  

Divulgação de IA. O Copilot no Bing fornece vários pontos de toque para divulgação significativa de IA, em que os usuários são notificados de que estão interagindo com um sistema de IA, bem como oportunidades para saber mais sobre Copilot no Bing. Capacitar os usuários com esse conhecimento pode ajudá-los a evitar depender demais da IA e aprender sobre os pontos fortes e limitações do sistema.  

Procedência da mídia.Microsoft Designer habilitou o recurso "Credenciais de Conteúdo", que usa métodos criptográficos para marcar a origem ou "procedência", de todas as imagens geradas por IA criadas no Designer. O recurso de marca d'água digital invisível mostra a origem, a hora e a data da criação original, e essas informações não podem ser alteradas. A tecnologia emprega padrões definidos pela Coalition for Content and Authenticity (C2PA) para adicionar uma camada extra de confiança e transparência para imagens geradas por IA. A Microsoft é co-fundadora do C2PA e contribuiu com a principal tecnologia de procedência de conteúdo digital. 

Termos de Uso e Código de Conduta. Esse recurso rege o uso do Copilot no Bing. Os usuários devem respeitar os Termos de Uso e o Código de Conduta, que, entre outras coisas, os informa sobre usos permitidos e impermissíveis e as consequências de violar termos. Os Termos de Uso também fornecem divulgações adicionais para os usuários e servem como uma referência útil para os usuários aprenderem sobre Copilot no Bing.   

Operações e resposta rápida. Também usamos o Copilot nos processos operacionais e de monitoramento contínuos do Bing para resolver quando Copilot no Bing recebe sinais ou recebe um relatório, indicando possíveis uso indevido ou violações dos Termos de Uso ou Código de Conduta.  

Comentários, monitoramento e supervisão. A experiência Copilot no Bing baseia-se em ferramentas existentes que permitem que os usuários enviem comentários e reportem preocupações, que são revisadas pelas equipes de operações da Microsoft. Os processos operacionais do Bing também se expandiram para acomodar os recursos dentro da experiência Copilot no Bing, por exemplo, atualizando a página Relatar uma Preocupação para incluir os novos tipos de conteúdo que os usuários geram com a ajuda do modelo.   

Nossa abordagem para identificar, medir e mitigar riscos continuará a evoluir à medida que aprendemos mais e já estamos fazendo melhorias com base nos comentários coletados durante o período de visualização.     

Detecção automatizada de conteúdo. Quando os usuários carregam imagens como parte de seu prompt de chat, o Copilot no Bing implanta ferramentas para detectar imagens de exploração sexual infantil e abuso (CSEAI), mais notavelmente a tecnologia de correspondência de hash do PhotoDNA. A Microsoft desenvolveu o PhotoDNA para ajudar a encontrar duplicatas do CSEAI conhecido. A Microsoft relata todos os CSEAI aparentes ao Centro Nacional de Crianças Desaparecidas e Exploradas (NCMEC), conforme exigido pela lei dos EUA. Quando os usuários carregam arquivos para analisar ou processar, o Copilot implanta a verificação automatizada para detectar conteúdo que pode levar a riscos ou uso indevido, como texto que pode estar relacionado a atividades ilegais ou código mal-intencionado.

Proteger a privacidade  

A crença de longa data da Microsoft de que a privacidade é um direito humano fundamental informou todas as etapas do desenvolvimento e implantação da Microsoft de Copilot na experiência do Bing. Nossos compromissos de proteger a privacidade de todos os usuários, inclusive fornecendo aos indivíduos transparência e controle sobre seus dados e integrando privacidade por design por meio de minimização de dados e limitação de finalidade, são fundamentais para o Copilot no Bing. À medida que evoluímos nossa abordagem para fornecer o Copilot nas experiências de IA generativas do Bing, exploraremos continuamente a melhor maneira de proteger a privacidade. Este documento será atualizado conforme o fizermos. Mais informações sobre como a Microsoft protege a privacidade de nossos usuários está disponível na Instrução de Privacidade da Microsoft.  

Na experiência Copilot no Windows, as habilidades do Windows podem, como parte de sua funcionalidade, compartilhar informações do usuário com a conversa de chat. Isso está sujeito à aprovação do usuário e os prompts da interface do usuário são exibidos para confirmar a intenção do usuário antes que as informações do usuário sejam compartilhadas com a conversa de chat.

A Microsoft continua a considerar as necessidades de crianças e jovens como parte das avaliações de risco de novos recursos de IA generativos no Copilot no Bing. Todas as contas filho da Microsoft que identificam o usuário como menor de 13 anos ou conforme especificado de outra forma nas leis locais não podem entrar para acessar a nova experiência do Bing completa.   

Conforme descrito acima, para todos os usuários implementamos salvaguardas que mitigam conteúdo potencialmente prejudicial. No Copilot no Bing, os resultados são definidos como no Modo Estrito do Bing SafeSearch, que tem o mais alto nível de proteção de segurança no main pesquisa do Bing, impedindo que os usuários, incluindo usuários adolescentes, sejam expostos a conteúdo potencialmente prejudicial. Além das informações fornecidas neste documento e em nossas perguntas frequentes sobre recursos de chat, mais informações sobre como o Copilot no Bing funciona para evitar responder com conteúdo ofensivo inesperado nos resultados da pesquisa estão disponíveis aqui.  

A Microsoft se comprometeu a não fornecer publicidade personalizada com base no comportamento online para crianças cuja data de nascimento em sua conta Microsoft os identifica como menores de 18 anos. Essa proteção importante se estenderá a anúncios em Copilot em recursos do Bing. Os usuários podem ver anúncios contextuais com base na consulta ou prompt usado para interagir com o Bing.  

Para desbloquear o potencial transformador da IA generativa, devemos criar confiança na tecnologia por meio da capacitação dos indivíduos para entender como seus dados são usados e fornecer-lhes escolhas e controles significativos sobre seus dados. O Copilot no Bing foi projetado para priorizar a agência humana, fornecendo informações sobre como o produto funciona, bem como suas limitações, e estendendo nossas escolhas e controles robustos do consumidor para o Copilot em recursos do Bing.   

A Instrução de Privacidade da Microsoft fornece informações sobre nossas práticas de privacidade transparentes para proteger nossos clientes e define informações sobre os controles que dão aos nossos usuários a capacidade de exibir e gerenciar seus dados pessoais. Para ajudar a garantir que os usuários tenham as informações de que precisam quando estão interagindo com os novos recursos de conversação do Bing, as divulgações no produto informam aos usuários que eles estão se envolvendo com um produto de IA e fornecemos links para perguntas frequentes e explicações adicionais sobre como esses recursos funcionam. A Microsoft continuará ouvindo comentários do usuário e adicionará mais detalhes sobre os recursos de conversação do Bing conforme apropriado para dar suporte à compreensão da maneira como o produto funciona.   

A Microsoft também fornece aos seus usuários ferramentas robustas para exercer seus direitos sobre seus dados pessoais. Para dados coletados pelo Copilot no Bing, inclusive por meio de consultas e prompts de usuário, o Painel de Privacidade da Microsoft fornece aos usuários autenticados (conectados) ferramentas para exercer seus direitos de entidade de dados, inclusive fornecendo aos usuários a capacidade de exibir, exportar e excluir o histórico de conversas armazenado. A Microsoft continua a receber comentários sobre como deseja gerenciar sua nova experiência de Bing, inclusive por meio do uso de experiências de gerenciamento de dados no contexto.   

Copilot no Bing também honra solicitações sob o direito europeu de serem esquecidas, seguindo o processo que a Microsoft desenvolveu e refinou para a funcionalidade de pesquisa tradicional do Bing. Todos os usuários podem relatar preocupações sobre conteúdo e respostas gerados aqui, e nossos usuários europeus podem usar esse formulário para enviar solicitações para bloquear os resultados da pesquisa na Europa sob o direito de serem esquecidos.   

O copilot no Bing honrará as escolhas de privacidade dos usuários, incluindo aquelas que já foram feitas no Bing, como consentimento para coleta e uso de dados solicitados por meio de banners de cookie e controles disponíveis no Painel de Privacidade da Microsoft. Para ajudar a habilitar a autonomia do usuário e a agência na tomada de decisões informadas, usamos nosso processo de revisão interna para examinar cuidadosamente como as opções são apresentadas aos usuários. 

Além dos controles disponíveis por meio do Painel de Privacidade da Microsoft, que permitem que os usuários exibam, exportem e excluam seu histórico de pesquisa, incluindo componentes de seu histórico de chat, usuários autenticados que habilitaram o recurso de histórico do Chat no produto têm a capacidade de exibir, acessar e baixar o histórico de chat por meio de controles no produto. Os usuários podem limpar chats específicos do histórico do Chat ou desativar totalmente a funcionalidade do histórico do Chat a qualquer momento visitando a página Configurações do Bing. Os usuários também podem escolher se permitem que a personalização acesse uma experiência mais personalizada com respostas personalizadas. Os usuários podem optar e optar pela personalização a qualquer momento em Configurações de Chat na página Configurações do Bing.  Limpar chats específicos do histórico do Chat impede que eles sejam usados para personalização.  
 
Mais informações sobre histórico e personalização de chat são fornecidas aos usuários em Copilot em perguntas frequentes do Bing. 

O co-piloto no Bing foi criado com privacidade em mente, de modo que os dados pessoais sejam coletados e usados apenas conforme necessário e não sejam mantidos mais do que o necessário. Conforme mencionado acima, o Visual Pesquisa no recurso Copilot no Bing implanta um mecanismo que desfoca rostos nas imagens no momento do carregamento pelos usuários, para que as imagens faciais não sejam processadas ou armazenadas. Mais informações sobre os dados pessoais coletados pelo Bing, como eles são usados e como eles são armazenados e excluídos estão disponíveis na Instrução de Privacidade da Microsoft, que também fornece informações sobre os novos recursos de chat do Bing.   

O copilot no Bing tem políticas de retenção e exclusão de dados para ajudar a garantir que os dados pessoais coletados por meio dos recursos de chat do Bing sejam mantidos apenas o tempo necessário.   

Continuaremos aprendendo e evoluindo nossa abordagem no fornecimento de Copilot no Bing, e à medida que o fizermos, continuaremos trabalhando entre disciplinas para alinhar nossa inovação em IA com valores humanos e direitos fundamentais, incluindo a proteção de jovens usuários e privacidade.   

Copilot com proteção de dados comercial 

Copilot com proteção de dados comerciais, anteriormente conhecido como Bing Chat Enterprise ("BCE"), foi lançado pela Microsoft em versão prévia pública gratuita em julho de 2023 como um complemento gratuito para determinados clientes M365. O copilot com proteção de dados comerciais é uma experiência de pesquisa na Web aprimorada por IA para usuários finais corporativos. 

Assim como acontece com o Copilot no Bing, quando um Copilot com o usuário final de proteção de dados comercial insere um prompt na interface, o prompt, a conversa imediata, os principais resultados de pesquisa e o metaprompt são enviados como entradas para a LLM. O modelo gera uma resposta usando o histórico de conversas rápida e imediata para contextualizar a solicitação, o metaprompt para alinhar respostas com os Princípios de IA da Microsoft e as expectativas do usuário e os resultados da pesquisa para obter respostas básicas no conteúdo existente e de alto escalão da Web. Isso funciona da mesma forma que Copilot no Bing, conforme descrito acima neste documento, com a exceção de que Copilot com proteção de dados comercial depende apenas do histórico de conversas imediatas (não histórico recente de conversas) devido ao histórico de chat armazenado não ser um recurso com suporte no momento. Designer e Visual Pesquisa já estão disponíveis nesta versão. 

Como outras tecnologias transformadoras, aproveitar os benefícios da IA não é livre de riscos e uma parte central do programa de IA Responsável da Microsoft é projetada para identificar riscos potenciais, medir sua propensão a ocorrer e criar mitigações para resolvê-los. Novamente, a descrição acima dos esforços da Microsoft para identificar, medir e mitigar possíveis riscos para Copilot no Bing também se aplica a essa versão, com alguns esclarecimentos sobre mitigações descritos abaixo: 

Versão em fases, avaliação contínua. Assim como no Copilot Bing, para Copilot com proteção de dados comerciais, também adotamos uma abordagem de versão incremental. Em 18 de julho de 2023, a Copilot com proteção de dados comercial tornou-se disponível como uma versão prévia gratuita para clientes corporativos qualificados com contas M365 específicas ativadas para seus usuários finais corporativos. Trinta (30) dias após notificar clientes empresariais qualificados, a Copilot com proteção de dados comercial tornou-se "padrão" para esses mesmos clientes. Copilot com proteção de dados comercial também se tornou disponível para contas específicas do corpo docente educacional M365. Copilot com proteção de dados comercial tornou-se geralmente disponível para determinados clientes corporativos em 1º de dezembro de 2023. No futuro, planejamos expandir o acesso ao Copilot com proteção comercial de dados para usuários mais Microsoft Entra ID.

Termos de Uso e Código de Conduta. Os usuários finais do Copilot com proteção de dados comerciais devem respeitar os Termos de Uso do Usuário Final. Esses Termos de Uso informam aos usuários finais sobre usos permitidos e impermissíveis e as consequências de violar termos.  

Operações e resposta rápida. Também usamos o Copilot nos processos operacionais e de monitoramento contínuos do Bing para resolver quando Copilot com proteção de dados comercial recebe sinais ou recebe um relatório, indicando possíveis uso indevido ou violações dos Termos de Uso do Usuário Final

Comentários, monitoramento e supervisão. Copilot com proteção de dados comercial usa a mesma ferramenta que Copilot no Bing para que os usuários enviem comentários e reportem preocupações, que são revisados pelas equipes de operações da Microsoft. O copilot nos processos operacionais do Bing também se expandiu para acomodar os recursos no Copilot com experiências comerciais de proteção de dados, por exemplo, atualizando a página Relatar uma Preocupação para incluir os novos tipos de conteúdo que os usuários geram com a ajuda do modelo.  

Para ajudar a garantir que os usuários finais tenham as informações necessárias quando estiverem interagindo com o Copilot com a proteção de dados comerciais, há documentação do produto disponível na parte inferior deste documento, incluindo as páginas Perguntas frequentes e Saiba mais. 

Os prompts e respostas gerados pelos usuários finais em Copilot com proteção de dados comerciais são processados e armazenados em alinhamento com os padrões de tratamento de dados corporativos. O Copilot com oferta comercial de proteção de dados está atualmente disponível apenas para clientes corporativos e seus usuários finais adultos autenticados, portanto, não prevemos que crianças ou jovens sejam usuários finais do Copilot com proteção de dados comerciais no momento. Além disso, o Copilot com proteção de dados comerciais não fornece nenhuma publicidade direcionada comportamentalmente aos usuários finais. Em vez disso, todos os anúncios exibidos são apenas anúncios contextualmente relevantes.  

Saiba mais

Este documento faz parte de um esforço mais amplo da Microsoft para colocar nossos princípios de IA em prática. Para saber mais, confira:

Abordagem da Microsoft para IA responsável

Padrão de IA Responsável da Microsoft

Recursos de IA responsável da Microsoft  

Cursos do Microsoft Azure Learning sobre IA Responsável  

Sobre este documento  

© Microsoft 2023. All rights reserved. Este documento é fornecido "como está" e somente para fins informativos. Informações e exibições expressas neste documento, incluindo URL e outras referências de site da Internet, podem ser alteradas sem aviso prévio. Você corre o risco de usá-lo. Alguns exemplos são apenas para ilustração e são fictícios. Nenhuma associação real é pretendida ou inferida.  

Precisa de mais ajuda?

Quer mais opções

Explore os benefícios da assinatura, procure cursos de treinamento, saiba como proteger seu dispositivo e muito mais.

As comunidades ajudam você a fazer e responder perguntas, fazer comentários e ouvir especialistas com conhecimento avançado.

Essas informações foram úteis?

Qual é o seu grau de satisfação com a qualidade do idioma?
O que afetou sua experiência?
Ao pressionar enviar, seus comentários serão usados para aprimorar os produtos e serviços da Microsoft. Seu administrador de TI poderá coletar esses dados. Política de Privacidade.

Agradecemos seus comentários!

×