Última atualização: fevereiro de 2024

As noções básicas de Copilot no Bing   

Introdução  

Em fevereiro de 2023, a Microsoft lançou o novo Bing, uma experiência de pesquisa na Web melhorada de IA. Suporta os utilizadores ao resumir os resultados da pesquisa na Web e ao proporcionar uma experiência de chat. Os utilizadores também podem gerar conteúdo criativo, como poemas, piadas, histórias e, com o Criador de Imagens do Bing, imagens. O novo Bing avançado em IA é executado numa variedade de tecnologias avançadas da Microsoft e openAI, incluindo GPT-4, um modelo de linguagem de ponta grande (LLM) e DALL-E, um modelo de aprendizagem profunda para gerar imagens digitais a partir de descrições de linguagem natural, ambas da OpenAI. Trabalhámos com ambos os modelos durante meses antes do lançamento público para desenvolver um conjunto personalizado de capacidades e técnicas para associar esta tecnologia de IA de ponta e pesquisa na Web no novo Bing.  Em novembro de 2023, a Microsoft mudou o nome do novo Bing para Copilot no Bing.

Na Microsoft, levamos a sério o nosso compromisso com a IA responsável. A experiência Copilot no Bing foi desenvolvida de acordo com os Princípios de IA da Microsoft, o Standard de IA Responsável da Microsoft e em parceria com especialistas responsáveis em IA em toda a empresa, incluindo o Office de IA Responsável da Microsoft, as nossas equipas de engenharia, a Microsoft Research e o Aether. Pode saber mais sobre a IA responsável na Microsoft aqui.  

Neste documento, descrevemos a nossa abordagem à IA responsável para o Copilot no Bing. Antes do lançamento, adotámos métodos de última geração para identificar, medir e mitigar potenciais riscos e utilização indevida do sistema e para proteger os seus benefícios para os utilizadores. À medida que continuamos a desenvolver o Copilot no Bing desde o primeiro lançamento, também continuamos a aprender e a melhorar os nossos esforços responsáveis de IA. Este documento será atualizado periodicamente para comunicar os nossos métodos e processos em evolução.   

Termos-chave  

O Copilot no Bing é uma experiência de pesquisa na Web melhorada de IA. À medida que é executada numa nova tecnologia poderosa, começamos por definir alguns termos-chave.  

Modelos de machine learning que ajudam a ordenar dados em classes etiquetadas ou categorias de informações. No Copilot no Bing, uma forma de utilizarmos classificadores é ajudar a detetar conteúdos potencialmente prejudiciais submetidos por utilizadores ou gerados pelo sistema para mitigar a geração desse conteúdo e utilização indevida ou abuso do sistema. 

O Copilot no Bing baseia-se nos resultados da pesquisa na Web quando os utilizadores procuram informações. Isso significa que centralizamos a resposta fornecida à consulta ou solicitação de um usuário sobre conteúdo de alto escalão da Web e fornecemos links para sites para que os usuários possam saber mais. O Bing classifica o conteúdo da pesquisa na Web por recursos altamente ponderados, como relevância, qualidade e credibilidade e atualização. Descrevemos estes conceitos mais detalhadamente em Como o Bing Fornece Resultados da Pesquisa (veja "Qualidade e Credibilidade" em "Como o Bing Classifica os Resultados da Pesquisa").   

Consideramos que as respostas fundamentadas são respostas da Copilot no Bing em que as declarações são suportadas por informações contidas em origens de entrada, como os resultados da pesquisa na Web da consulta ou da linha de comandos, a base de dados de conhecimento do Bing de informações verificadas por factos e, para a experiência de chat, o histórico de conversações recente do chat. As respostas não encalhadas são aquelas em que uma instrução não está fundamentada nessas origens de entrada.  

Os modelos de linguagem grandes (LLMs) neste contexto são modelos de IA preparados em grandes quantidades de dados de texto para prever palavras em sequências. Os LLMs são capazes de realizar uma variedade de tarefas, como geração de texto, resumo, tradução, classificação e muito mais.  

O metaprompt é um programa que serve para orientar o comportamento do sistema. Partes do metaprompt ajudam a alinhar o comportamento do sistema com os Princípios de IA da Microsoft e as expectativas dos utilizadores. Por exemplo, o metaprompt pode incluir uma linha como "comunicar no idioma de eleição do utilizador".  

Um método ou combinação de métodos concebidos para reduzir potenciais riscos que podem surgir da utilização de funcionalidades orientadas por IA no Copilot no Bing.  

Texto, voz, imagens e/ou outras consultas ativadas que um utilizador envia para o Bing como uma entrada para o modelo que alimenta novas experiências geradoras orientadas por IA no Bing. Por exemplo, um utilizador pode introduzir o seguinte pedido:  

"Estou a planear uma viagem para o nosso aniversário em setembro. Quais são alguns lugares que podemos ir que estão dentro de um voo de 3 horas de Londres Heathrow?”  

O texto que um utilizador envia para o Bing a partir da barra de pesquisa para pesquisa na Web. Neste documento, distinguimos uma consulta (para pesquisa na Web) de um pedido (para experiências geradoras baseadas em IA no Bing). Por exemplo, um utilizador pode introduzir a seguinte consulta para procurar na Web:  

"destinos de viagem perto do aeroporto de Heathrow em Londres"  

Técnicas utilizadas por especialistas para avaliar as limitações e vulnerabilidades de um sistema e testar a eficácia das mitigações planeadas. Os testes da equipa vermelha e os testes de stress são utilizados para identificar potenciais riscos e são distintos da medição sistemática dos riscos.   

O texto, imagem, gráficos, etc. que Copilot no Bing produz em resposta a um pedido. Os sinónimos para "resposta" incluem "conclusão", "geração" e "resposta". Por exemplo, o Bing pode fornecer a seguinte resposta ao pedido que utilizámos na definição de "prompt" acima:   

"Parabéns pelo teu aniversário! Há muitos lugares para onde você pode ir que estão dentro de um voo de 3 horas de Londres Heathrow. De acordo com uma fonte, algumas das fugas de fim de semana em três horas de avião de Londres são Bilbau, Copenhaga, Reykjavik e Estocolmo 1, 2. Outra fonte sugere que alguns dos melhores lugares para ir na Europa em setembro são Cracóvia, Florença e Lisboa 3, 4. Também pode verificar os voos diretos de Londres Heathrow para vários destinos e ver os apelos para si 5. Espero que tenha uma viagem maravilhosa!”  

Utilizações pretendidas e novas experiências de IA  

O Copilot nas utilizações pretendidas do Bing é ligar os utilizadores a resultados de pesquisa relevantes, rever os resultados de toda a Web para encontrar e resumir respostas que os utilizadores procuram, ajudar os utilizadores a refinar a sua pesquisa para obter respostas com uma experiência de chat e gerar criatividade ao ajudar os utilizadores a criar conteúdos. O Copilot nas experiências de IA geradoras do Bing abaixo suporta o objetivo de ser um copilot com tecnologia de IA para a Web.  

Resumo. Quando os utilizadores submetem uma consulta de pesquisa no Copilot no Bing, o sistema Bing processa a consulta, realiza uma ou mais pesquisas na Web e utiliza os principais resultados da pesquisa na Web para gerar um resumo das informações a apresentar aos utilizadores. Estes resumos incluem referências para ajudar os utilizadores a ver e aceder facilmente aos resultados da pesquisa utilizados para ajudar a resumir o resumo. Os resumos podem aparecer no lado direito da página de resultados da pesquisa e na experiência de chat.  

Experiência de chat. Além do resumo, os utilizadores podem conversar com o Copilot no sistema Bing através de texto, imagem ou entrada de voz, fazer perguntas de seguimento para esclarecer pesquisas e encontrar novas informações e submeter pedidos para gerar conteúdo criativo. As referências também são incluídas na experiência de chat quando o Copilot no Bing está a resumir os resultados da pesquisa na resposta.   

Geração de conteúdo criativo. Tanto na experiência de chat como na página de pesquisa, os utilizadores podem criar poemas, piadas, histórias, imagens e outros conteúdos com a ajuda de Copilot no Bing.  As imagens são criadas pelo Estruturador (o antigo Criador de Imagens do Bing) e os utilizadores podem aceder à funcionalidade através da home page do Estruturador, bem como da página Copilot. 

Como funciona o Copilot no Bing?  

Com a Copilot no Bing, desenvolvemos uma abordagem inovadora para levar LLMs de última geração à pesquisa na Web. Quando um utilizador introduz um pedido no Copilot no Bing, o pedido, o histórico de conversações recentes, o metaprompt e os principais resultados da pesquisa são enviados como entradas para o LLM. O modelo gera uma resposta com o pedido do utilizador e o histórico de conversações recentes para contextualizar o pedido, a metapromptação para alinhar as respostas com os Princípios de IA da Microsoft e as expetativas do utilizador e os resultados da pesquisa para obter respostas básicas em conteúdos existentes e de alto nível da Web.   

As respostas são apresentadas aos utilizadores em vários formatos diferentes, como ligações tradicionais para conteúdo Web, resumos gerados por IA, imagens e respostas de chat. Os resumos e as respostas de chat que dependem dos resultados da pesquisa na Web incluirão referências e uma secção "Saiba mais" abaixo das respostas, com ligações para resultados de pesquisa que foram utilizados para fundamentar a resposta. Os utilizadores podem clicar nestas ligações para saber mais sobre um tópico e as informações utilizadas para fundamentar a resposta de resumo ou chat.    

Na experiência Copilot, os utilizadores podem efetuar pesquisas na Web de forma conversacional ao adicionar contexto à sua linha de comandos e interagir com as respostas do sistema para especificar ainda mais os seus interesses de pesquisa. Por exemplo, um utilizador pode fazer perguntas de seguimento, pedir informações de esclarecimento adicionais ou responder ao sistema de forma conversacional. Na experiência de chat, os utilizadores também podem selecionar uma resposta a partir de sugestões pré-escritas, às quais chamamos sugestões de chat. Estes botões são apresentados após cada resposta do Copilot e fornecem pedidos sugeridos para continuar a conversação na experiência de chat. As sugestões de chat também aparecem juntamente com conteúdo resumido na página de resultados da pesquisa como um ponto de entrada para a experiência de chat.  

Copilot no Bing também permite que um utilizador crie histórias, poemas, letras de música e imagens com a ajuda do Bing. Quando o Copilot no Bing deteta a intenção do utilizador de gerar conteúdo criativo (por exemplo, o pedido começa com "escreva-me um ..."), o sistema irá, na maioria dos casos, gerar conteúdo reativo à linha de comandos do utilizador. Da mesma forma, quando o Copilot no Bing deteta a intenção do utilizador de gerar uma imagem (por exemplo, o pedido começa com "desenhe-me um ..."), o sistema irá, na maioria dos casos, gerar uma imagem reativa para o pedido do utilizador. Na experiência Pesquisa Visual no Chat, com uma imagem tirada pela câmara do utilizador, carregada a partir do dispositivo do utilizador ou ligada a partir da Web, os utilizadores podem pedir ao Copilot no Bing para compreender o contexto, interpretar e responder a perguntas sobre a imagem.  Os utilizadores também podem carregar os respetivos ficheiros para o Copilot para interpretar, converter, processar ou calcular informações dos mesmos. Na experiência do Microsoft Designer à qual os utilizadores podem aceder através do Copilot no Bing, os utilizadores podem não só gerar imagens através de pedidos, mas também redimensioná-las ou reestilizá-las, ou tornar as edições como o fundo desfocado ou tornar as cores mais vivas. 

Agora, os utilizadores com contas Microsoft (MSA) também têm a opção de subscrever o Copilot Pro que oferece uma experiência melhorada, incluindo desempenho acelerado, criação mais rápida de imagens de IA e, em breve, a capacidade de criar os seus próprios GPTs Copilot. O Copilot Pro está atualmente disponível em países limitados e planeamos disponibilizar o Copilot Pro em mais mercados em breve.

Na experiência Copilot, os utilizadores podem aceder a GPTs copilot. Um GPT copilot, como o Designer GPT, é uma versão personalizada do Microsoft Copilot sobre um tópico que lhe interessa particularmente, como fitness, viagens e culinária, que pode ajudar a transformar ideias vagas ou gerais em pedidos mais específicos com saídas, incluindo textos e imagens. Em Copilot, os utilizadores podem ver gpTs copilot disponíveis e os utilizadores com contas Copilot Pro terão acesso em breve ao Copilot GPT Builder, uma funcionalidade que permite aos utilizadores criar e configurar um GPT Copilot personalizado. As mitigações de IA Responsável mencionadas acima para Copilot no Bing aplicam-se aos GPTs copilot.

Para saber mais sobre como funcionam os GPTs Copilot Pro e Copilot, visite aqui.

O Copilot no Bing esforça-se por fornecer resultados de pesquisa diversificados e abrangentes com o seu compromisso de acesso livre e aberto às informações. Ao mesmo tempo, os nossos esforços de qualidade do produto incluem trabalhar para evitar inadvertidamente promover conteúdo potencialmente prejudicial para os utilizadores. Estão disponíveis mais informações sobre a forma como o Bing classifica os conteúdos, incluindo a forma como define a relevância e a qualidade e credibilidade de uma página Web, nas "Diretrizes do Bing Webmaster".   Estão disponíveis mais informações sobre os princípios de moderação de conteúdos do Bing em "How Bing delivers search results".   

Identificar, medir e mitigar riscos  

Tal como outras tecnologias transformacionais, tirar partido dos benefícios da IA não é isento de riscos e uma parte fundamental do programa de IA Responsável da Microsoft foi concebida para identificar potenciais riscos, medir a sua propensão e criar mitigações para os abordar. Orientados pelos nossos Princípios de IA e pela nossa Norma de IA Responsável, procurámos identificar, medir e mitigar potenciais riscos e utilização indevida do Copilot no Bing, ao mesmo tempo que protegemos as utilizações transformadoras e benéficas que a nova experiência proporciona. Nas seções abaixo, descrevemos nossa abordagem iterativa para identificar, medir e mitigar riscos potenciais.   

No nível do modelo, nosso trabalho começou com análises exploratórias do GPT-4 no final do verão de 2022. Isso incluiu a realização de extensos testes de equipe vermelha em colaboração com o OpenAI. Este teste foi projetado para avaliar como a tecnologia mais recente funcionaria sem quaisquer proteções adicionais aplicadas a ela. Nossa intenção específica neste momento era produzir respostas prejudiciais, criar caminhos potenciais para uso indevido e identificar funcionalidades e limitações. Nossos aprendizados combinados no OpenAI e na Microsoft contribuíram para os avanços no desenvolvimento de modelos e, para nós, na Microsoft, informamos nossa compreensão dos riscos e contribuímos para estratégias de mitigação precoces para Copilot no Bing.  

Além do teste de equipe vermelha no nível do modelo, uma equipe multidisciplinar de especialistas realizou várias rodadas de testes de equipe vermelha no nível do aplicativo em Copilot em experiências de IA do Bing antes de disponibilizá-los publicamente em nossa versão prévia limitada. Esse processo nos ajudou a entender melhor como o sistema poderia ser explorado por atores adversários e melhorar nossas mitigações. Os testadores de estresse não adversários também avaliaram extensivamente novos recursos do Bing para deficiências e vulnerabilidades. Após o lançamento, as novas experiências de IA no Bing são integradas à infraestrutura de teste e medição de produção existente da organização de engenharia do Bing. Por exemplo, testadores de equipe vermelha de diferentes regiões e origens tentam comprometer continuamente e sistematicamente o sistema e suas descobertas são usadas para expandir os conjuntos de dados que o Bing usa para melhorar o sistema.  

O teste de equipe vermelha e o teste de estresse podem apresentar instâncias de riscos específicos, mas em produção os usuários terão milhões de tipos diferentes de conversas com Copilot no Bing. Além disso, as conversas são multi-turno e contextuais, e identificar conteúdo prejudicial dentro de uma conversa é uma tarefa complexa. Para entender e abordar melhor o potencial de riscos em Copilot em experiências de IA do Bing, desenvolvemos métricas adicionais de IA responsáveis específicas para essas novas experiências de IA para medir riscos potenciais, como jailbreaks, conteúdo prejudicial e conteúdo não em primeiro plano. Também habilitamos a medição em escala por meio de pipelines de medição parcialmente automatizados. Sempre que o produto é alterado, mitigações existentes são atualizadas ou novas mitigações são propostas, atualizamos nossos pipelines de medição para avaliar o desempenho do produto e as métricas de IA responsáveis.  

Como exemplo ilustrativo, o pipeline de medição parcialmente automatizado atualizado para conteúdo prejudicial inclui duas grandes inovações: simulação de conversa e anotação automatizada de conversa verificada pelo homem. Primeiro, especialistas responsáveis em IA criaram modelos para capturar a estrutura e o conteúdo das conversas que poderiam resultar em diferentes tipos de conteúdo prejudicial. Esses modelos foram então dados a um agente de conversa que interagia como um usuário hipotético com Copilot no Bing, gerando conversas simuladas. Para identificar se essas conversas simuladas continham conteúdo prejudicial, tomamos diretrizes que normalmente são usadas por linguistas especialistas para rotular dados e modificá-los para uso pelo GPT-4 para rotular conversas em escala, refinando as diretrizes até que houvesse um acordo significativo entre conversas rotuladas por modelo e conversas rotuladas por humanos. Por fim, usamos as conversas rotuladas por modelo para calcular uma métrica de IA responsável que captura a eficácia do Copilot no Bing na mitigação de conteúdo prejudicial.   

Nossos pipelines de medição nos permitem executar rapidamente a medição para possíveis riscos em escala. À medida que identificamos novos problemas durante o período de visualização e os testes contínuos da equipe vermelha, continuamos a expandir os conjuntos de medidas para avaliar riscos adicionais.  

À medida que identificamos riscos potenciais e uso indevido por meio de processos como teste de equipe vermelha e teste de estresse e os medimos com as abordagens inovadoras descritas acima, desenvolvemos mitigações adicionais para aqueles usados para pesquisa tradicional. Abaixo, descrevemos algumas dessas mitigações. Continuaremos monitorando o Copilot em experiências de IA do Bing para melhorar o desempenho e as mitigações do produto.  

Versão em fases, avaliação contínua. Estamos comprometidos em aprender e melhorar nossa abordagem de IA responsável continuamente à medida que nossas tecnologias e comportamento do usuário evoluem. Nossa estratégia de lançamento incremental tem sido uma parte central de como movemos nossa tecnologia com segurança dos laboratórios para o mundo, e estamos comprometidos com um processo deliberado e atencioso para garantir os benefícios do Copilot no Bing. Limitar o número de pessoas com acesso durante o período de visualização nos permitiu descobrir como as pessoas usam Copilot no Bing, incluindo como as pessoas podem usá-lo indevidamente, para que possamos tentar mitigar questões emergentes antes da liberação mais ampla. Por exemplo, estamos exigindo que os usuários se autentiquem usando sua conta Microsoft antes de acessar a nova experiência do Bing completa. Usuários não autenticados podem acessar apenas uma visualização limitada da experiência. Essas etapas desencorajam o abuso e nos ajudam a (conforme necessário) tomar as medidas apropriadas em resposta às violações do Código de Conduta.  Estamos fazendo alterações no Copilot no Bing diariamente para melhorar o desempenho do produto, melhorar as mitigações existentes e implementar novas mitigações em resposta aos nossos aprendizados durante o período de visualização.  

Aterramento nos resultados da pesquisa. Conforme observado acima, o Copilot no Bing foi projetado para fornecer respostas compatíveis com as informações nos resultados da pesquisa na Web quando os usuários estão buscando informações. Por exemplo, o sistema é fornecido com texto dos principais resultados e instruções de pesquisa por meio do metaprompt para aterrar sua resposta. No entanto, ao resumir o conteúdo da Web, o Copilot no Bing pode incluir informações em sua resposta que não estão presentes em suas fontes de entrada. Em outras palavras, ele pode produzir resultados não encalhados. Nossas avaliações iniciais indicaram que os resultados não encalhados no chat podem ser mais prevalentes para determinados tipos de prompts ou tópicos do que outros, como pedir cálculos matemáticos, informações financeiras ou de mercado (por exemplo, ganhos da empresa, dados de desempenho de ações) e informações como datas precisas de eventos ou preços específicos de itens. Os usuários devem sempre ter cuidado e usar seu melhor julgamento ao exibir resultados de pesquisa resumidos, seja na página de resultados da pesquisa ou na experiência de chat. Tomamos várias medidas para atenuar o risco de que os usuários possam confiar demais em conteúdo gerado sem solo em cenários de resumo e experiências de chat. Por exemplo, as respostas no Copilot no Bing baseadas nos resultados da pesquisa incluem referências aos sites de origem para os usuários verificarem a resposta e saberem mais. Os usuários também recebem um aviso explícito de que estão interagindo com um sistema de IA e são aconselhados a verificar os materiais de origem do resultado da Web para ajudá-los a usar seu melhor julgamento.  

Classificadores baseados em IA e metaprompting para mitigar possíveis riscos ou uso indevido. O uso de LLMs pode produzir conteúdo problemático que pode levar a riscos ou uso indevido. Exemplos podem incluir a saída relacionada à auto-mutilação, violência, conteúdo gráfico, propriedade intelectual, informações imprecisas, fala odiosa ou texto que possa se relacionar com atividades ilegais. Classificadores e metaprompting são dois exemplos de mitigações que foram implementadas em Copilot no Bing para ajudar a reduzir o risco desses tipos de conteúdo. Os classificadores classificam o texto para sinalizar diferentes tipos de conteúdo potencialmente prejudicial em consultas de pesquisa, prompts de chat ou respostas geradas. O Bing usa classificadores baseados em IA e filtros de conteúdo, que se aplicam a todos os resultados da pesquisa e recursos relevantes; criamos classificadores de prompt adicionais e filtros de conteúdo especificamente para resolver possíveis riscos gerados pelo Copilot nos recursos do Bing. Os sinalizadores levam a possíveis mitigações, como não retornar o conteúdo gerado para o usuário, desviar o usuário para um tópico diferente ou redirecionar o usuário para a pesquisa tradicional. O metaprompting envolve dar instruções ao modelo para orientar seu comportamento, inclusive para que o sistema se comporte de acordo com os Princípios de IA da Microsoft e as expectativas do usuário. Por exemplo, o metaprompt pode incluir uma linha como "comunicar-se na linguagem de escolha do usuário".   

Proteção da privacidade no Visual Search no Copilot no Bing. Quando os usuários carregam uma imagem como parte de seu prompt de chat, o Copilot no Bing empregará a tecnologia de desfoque facial antes de enviar a imagem para o modelo de IA. O desfoque facial é usado para proteger a privacidade dos indivíduos na imagem. A tecnologia de desfoque facial depende de pistas de contexto para determinar onde desfocar e tentará desfocar todas as faces. Com os rostos desfocados, o modelo de IA pode comparar a imagem inserida com as de imagens disponíveis publicamente na Internet. Como resultado, por exemplo, Copilot em Bing pode ser capaz de identificar um jogador de basquete famoso a partir de uma foto desse jogador em uma quadra de basquete criando uma representação numérica que reflete o número da camisa do jogador, cor da camisa, a presença de uma cesta de basquete, etc. O copiloto no Bing não armazena representações numéricas de pessoas de imagens carregadas e não as compartilha com terceiros. Copiloto no Bing usa representações numéricas das imagens que os usuários carregam apenas com a finalidade de responder aos prompts dos usuários e, em seguida, eles são excluídos dentro de 30 dias após o término do chat.    

Se o usuário pedir ao Copilot no Bing informações sobre uma imagem carregada, as respostas de chat poderão refletir o impacto do desfoque facial na capacidade do modelo de fornecer informações sobre a imagem carregada. Por exemplo, Copilot no Bing pode descrever alguém como tendo um rosto desfocado.    

Limitando a deriva de conversa. Durante o período de visualização, aprendemos que sessões de chat muito longas podem resultar em respostas repetitivas, inúteis ou inconsistentes com Copilot no tom pretendido por Bing. Para resolver esse desvio de conversa, limitamos o número de turnos (trocas que contêm uma pergunta do usuário e uma resposta de Copilot no Bing) por sessão de chat. Continuamos avaliando abordagens adicionais para mitigar esse problema.  

Enriquecimento de prompt. Em alguns casos, o prompt de um usuário pode ser ambíguo. Quando isso acontece, o Copilot no Bing pode usar a LLM para ajudar a criar mais detalhes no prompt para ajudar a garantir que os usuários obtenham a resposta que estão buscando. Esse enriquecimento de prompt não depende de nenhum conhecimento do usuário ou de suas pesquisas anteriores, mas sim do modelo de IA. Essas consultas revisadas ficarão visíveis no histórico de chat do usuário e, como outras pesquisas, podem ser excluídas usando controles no produto.  

O design centrado no usuário e intervenções de experiência do usuário. O design centrado no usuário e as experiências do usuário são um aspecto essencial da abordagem da Microsoft para a IA responsável. O objetivo é raiz do design do produto nas necessidades e expectativas dos usuários. À medida que os usuários interagem com Copilot no Bing pela primeira vez, oferecemos vários pontos de toque projetados para ajudá-los a entender os recursos do sistema, revelar a eles que o Copilot no Bing é alimentado por IA e comunicar limitações. A experiência foi projetada dessa forma para ajudar os usuários a aproveitar ao máximo o Copilot no Bing e minimizar o risco de dependência excessiva. Elementos da experiência também ajudam os usuários a entender melhor o Copilot no Bing e suas interações com ela. Elas incluem sugestões de chat específicas para IA responsável (por exemplo, como o Bing usa a IA? Por que Copilot no Bing não responde em alguns tópicos?), explicações sobre limitações, maneiras pelas quais os usuários podem aprender mais sobre como o sistema funciona e relatar comentários e referências facilmente navegáveis que aparecem em respostas para mostrar aos usuários os resultados e páginas em que as respostas são fundamentadas.  

Divulgação de IA. O Copilot no Bing fornece vários pontos de toque para divulgação significativa de IA, em que os usuários são notificados de que estão interagindo com um sistema de IA, bem como oportunidades para saber mais sobre Copilot no Bing. Capacitar os usuários com esse conhecimento pode ajudá-los a evitar depender demais da IA e aprender sobre os pontos fortes e limitações do sistema.  

Procedência da mídia.O Microsoft Designer habilitou o recurso "Credenciais de Conteúdo", que usa métodos criptográficos para marcar a origem ou "procedência", de todas as imagens geradas por IA criadas no Designer. O recurso de marca d'água digital invisível mostra a origem, a hora e a data da criação original, e essas informações não podem ser alteradas. A tecnologia emprega padrões definidos pela Coalition for Content and Authenticity (C2PA) para adicionar uma camada extra de confiança e transparência para imagens geradas por IA. A Microsoft é co-fundadora do C2PA e contribuiu com a principal tecnologia de procedência de conteúdo digital. 

Termos de Uso e Código de Conduta. Esse recurso rege o uso do Copilot no Bing. Os usuários devem respeitar os Termos de Uso e o Código de Conduta, que, entre outras coisas, os informa sobre usos permitidos e impermissíveis e as consequências de violar termos. Os Termos de Uso também fornecem divulgações adicionais para os usuários e servem como uma referência útil para os usuários aprenderem sobre Copilot no Bing.   

Operações e resposta rápida. Também usamos o Copilot nos processos operacionais e de monitoramento contínuos do Bing para resolver quando Copilot no Bing recebe sinais ou recebe um relatório, indicando possíveis uso indevido ou violações dos Termos de Uso ou Código de Conduta.  

Comentários, monitoramento e supervisão. A experiência Copilot no Bing baseia-se em ferramentas existentes que permitem que os usuários enviem comentários e reportem preocupações, que são revisadas pelas equipes de operações da Microsoft. Os processos operacionais do Bing também se expandiram para acomodar os recursos dentro da experiência Copilot no Bing, por exemplo, atualizando a página Relatar uma Preocupação para incluir os novos tipos de conteúdo que os usuários geram com a ajuda do modelo.   

Nossa abordagem para identificar, medir e mitigar riscos continuará a evoluir à medida que aprendemos mais e já estamos fazendo melhorias com base nos comentários coletados durante o período de visualização.     

Deteção de conteúdo automatizada. Quando os utilizadores carregam imagens como parte do pedido de chat, a Copilot no Bing implementa ferramentas para detetar imagens de exploração sexual infantil e abuso (CSEAI), nomeadamente tecnologia de correspondência de hash do PhotoDNA. A Microsoft desenvolveu o PhotoDNA para ajudar a encontrar duplicados de CSEAI conhecido. A Microsoft reporta todos os CSEAI aparentes ao Centro Nacional de Crianças Desaparecidas e Exploradas (NCMEC), conforme exigido pela lei norte-americana. Quando os utilizadores carregam ficheiros para analisar ou processar, a Copilot implementa a análise automatizada para detetar conteúdo que pode levar a riscos ou utilização indevida, como texto que pode estar relacionado com atividades ilegais ou código malicioso.

Proteger a privacidade  

A crença de longa data da Microsoft de que a privacidade é um direito humano fundamental informou todas as fases do desenvolvimento e implementação da Copilot na experiência do Bing pela Microsoft. Os nossos compromissos em proteger a privacidade de todos os utilizadores, incluindo o fornecimento de transparência e controlo sobre os seus dados e a integração da privacidade por predefinição através da minimização de dados e limitação de finalidade, são fundamentais para o Copilot no Bing. À medida que evoluímos a nossa abordagem para fornecer o Copilot nas experiências de IA geradas do Bing, vamos explorar continuamente a melhor forma de proteger a privacidade. Este documento será atualizado à medida que o fizermos. Mais informações sobre como a Microsoft protege a privacidade dos nossos utilizadores estão disponíveis na Declaração de Privacidade da Microsoft.  

A Microsoft continua a considerar as necessidades das crianças e jovens como parte das avaliações de risco de novas funcionalidades de IA geradas no Copilot no Bing. Todas as contas de menores da Microsoft que identifiquem o utilizador com menos de 13 anos ou conforme especificado de outra forma nos termos da legislação local não podem iniciar sessão para aceder à nova experiência completa do Bing.   

Conforme descrito acima, para todos os utilizadores, implementámos salvaguardas que mitigam conteúdo potencialmente prejudicial. No Copilot no Bing, os resultados são definidos como no Modo Rigoroso da Pesquisa Segura do Bing, que tem o mais alto nível de proteção de segurança na pesquisa principal do Bing, impedindo assim que os utilizadores, incluindo utilizadores adolescentes, sejam expostos a conteúdo potencialmente prejudicial. Além das informações que fornecemos neste documento e nas nossas FAQs sobre as funcionalidades de chat, estão disponíveis aqui mais informações sobre como funciona o Copilot no Bing para evitar responder com conteúdo ofensivo inesperado nos resultados da pesquisa.  

A Microsoft comprometeu-se a não fornecer publicidade personalizada com base no comportamento online de crianças cuja data de nascimento na sua conta Microsoft os identifique como menores de 18 anos. Esta proteção importante irá estender-se aos anúncios no Copilot nas funcionalidades do Bing. Os utilizadores podem ver anúncios contextuais com base na consulta ou no pedido utilizado para interagir com o Bing.  

Para desbloquear o potencial transformador da IA geradora, temos de criar confiança na tecnologia através da capacitação dos indivíduos para compreenderem como os seus dados são utilizados e fornecer-lhes opções e controlos significativos sobre os seus dados. A Copilot no Bing foi concebida para priorizar a agência humana, através do fornecimento de informações sobre como o produto funciona, bem como as suas limitações, e através do alargamento das nossas escolhas e controlos robustos de consumidor à Copilot nas funcionalidades do Bing.   

A Declaração de Privacidade da Microsoft fornece informações sobre as nossas práticas de privacidade transparentes para proteger os nossos clientes e define informações sobre os controlos que dão aos nossos utilizadores a capacidade de ver e gerir os seus dados pessoais. Para ajudar a garantir que os utilizadores têm as informações de que precisam quando estão a interagir com as novas funcionalidades de conversação do Bing, as divulgações no produto informam os utilizadores de que estão a interagir com um produto de IA e fornecemos ligações para mais FAQs e explicações sobre como estas funcionalidades funcionam. A Microsoft continuará a ouvir os comentários dos utilizadores e irá adicionar mais detalhes sobre as funcionalidades de conversação do Bing conforme adequado para suportar a compreensão da forma como o produto funciona.   

A Microsoft também fornece aos seus utilizadores ferramentas robustas para exercer os seus direitos sobre os seus dados pessoais. Para os dados recolhidos pelo Copilot no Bing, incluindo através de consultas e pedidos de utilizador, o Dashboard de Privacidade da Microsoft fornece aos utilizadores autenticados (com sessão iniciada) ferramentas para exercer os seus direitos de titulares de dados, incluindo ao fornecer aos utilizadores a capacidade de ver, exportar e eliminar o histórico de conversações armazenados. A Microsoft continua a receber feedback sobre como quer gerir a sua nova experiência do Bing, incluindo através da utilização de experiências de gestão de dados em contexto.   

O Copilot no Bing também honra os pedidos sob o direito europeu de serem esquecidos, seguindo o processo que a Microsoft desenvolveu e refinou para a funcionalidade de pesquisa tradicional do Bing. Todos os utilizadores podem comunicar preocupações relativamente ao conteúdo gerado e às respostas aqui, e os nossos utilizadores europeus podem utilizar este formulário para submeter pedidos para bloquear os resultados da pesquisa na Europa com o direito de serem esquecidos.   

O Copilot no Bing respeitará as opções de privacidade dos utilizadores, incluindo as que foram anteriormente efetuadas no Bing, como o consentimento para a recolha e utilização de dados que é pedida através de faixas de cookies e controlos disponíveis no Dashboard de Privacidade da Microsoft. Para ajudar a permitir a autonomia dos utilizadores e a agência na tomada de decisões informadas, utilizámos o nosso processo de revisão interna para examinar cuidadosamente a forma como as escolhas são apresentadas aos utilizadores. 

Além dos controlos disponíveis através do Dashboard de Privacidade da Microsoft, que permitem aos utilizadores ver, exportar e eliminar o histórico de pesquisas, incluindo componentes do histórico de chat, os utilizadores autenticados que ativaram a funcionalidade Histórico de conversas no produto têm a capacidade de ver, aceder e transferir o histórico de conversas através de controlos no produto. Os utilizadores podem limpar conversas específicas do Histórico de conversas ou desativar totalmente a funcionalidade Histórico de conversas em qualquer altura, visitando a página Definições do Bing. Os utilizadores também podem optar por permitir que a personalização aceda a uma experiência mais personalizada com respostas personalizadas. Os utilizadores podem optar ativamente por não participar e optar ativamente por não participar na personalização em qualquer altura nas Definições do Chat na página Definições do Bing.  Limpar conversas específicas do Histórico de conversas impede que sejam utilizadas para personalização.    São fornecidas mais informações sobre o Histórico de conversas e personalização aos utilizadores no Copilot nas FAQs do Bing. 

O Copilot no Bing foi criado tendo em conta a privacidade, para que os dados pessoais sejam recolhidos e utilizados apenas conforme necessário e não sejam mantidos mais do que o necessário. Conforme mencionado acima, a funcionalidade Pesquisa Visual em Copilot no Bing implementa um mecanismo que desfoca rostos nas imagens no momento do carregamento pelos utilizadores, para que as imagens faciais não sejam processadas ou armazenadas. Mais informações sobre os dados pessoais que o Bing recolhe, como são utilizados e como são armazenados e eliminados estão disponíveis na Declaração de Privacidade da Microsoft, que também fornece informações sobre as novas funcionalidades de chat do Bing.   

O Copilot no Bing tem políticas de retenção e eliminação de dados para ajudar a garantir que os dados pessoais recolhidos através das funcionalidades de chat do Bing só são mantidos o tempo necessário.   

Continuaremos a aprender e a evoluir a nossa abordagem na disponibilização do Copilot no Bing e, à medida que o fizermos, continuaremos a trabalhar em várias disciplinas para alinhar a nossa inovação de IA com valores humanos e direitos fundamentais, incluindo proteger os jovens utilizadores e a privacidade.   

Copilot com proteção de dados comerciais 

O Copilot com proteção de dados comerciais, anteriormente conhecido como Bing Chat Enterprise ("BCE"), foi lançado pela Microsoft em pré-visualização pública gratuita em julho de 2023 como um suplemento gratuito para determinados clientes do M365. O Copilot com proteção de dados comerciais é uma experiência de pesquisa na Web melhorada de IA para utilizadores finais empresariais. 

Tal como acontece com o Copilot no Bing, quando um Copilot com o utilizador final de proteção de dados comerciais introduz um pedido na interface, o pedido, a conversação imediata, os principais resultados da pesquisa e o metaprompt são enviados como entradas para o LLM. O modelo gera uma resposta através do histórico de conversações imediata e de pedido para contextualizar o pedido, o metapromp para alinhar as respostas com os Princípios de IA da Microsoft e as expetativas do utilizador e os resultados da pesquisa para obter respostas básicas em conteúdos existentes e de alto nível da Web. Isto funciona da mesma forma que o Copilot no Bing, conforme descrito acima neste documento, com a exceção de que o Copilot com proteção de dados comerciais depende apenas do histórico de conversações imediatas (não do histórico de conversações recentes) devido ao histórico de conversas armazenados não ser uma funcionalidade atualmente suportada. O Estruturador e a Pesquisa Visual estão agora disponíveis nesta versão. 

Tal como outras tecnologias transformacionais, tirar partido dos benefícios da IA não é isento de riscos e uma parte fundamental do programa de IA Responsável da Microsoft foi concebida para identificar potenciais riscos, medir a sua propensão e criar mitigações para os abordar. Mais uma vez, a descrição acima dos esforços da Microsoft para identificar, medir e mitigar potenciais riscos para o Copilot no Bing também se aplica a esta versão, com alguns esclarecimentos sobre mitigações descritos abaixo: 

Lançamento faseado, avaliação contínua. Tal como acontece com o Copilot Bing, para a Copilot com a proteção de dados comerciais, também tomámos uma abordagem de lançamento incremental. A 18 de julho de 2023, a Copilot com proteção de dados comerciais ficou disponível como uma pré-visualização gratuita para clientes empresariais elegíveis com contas M365 específicas para ativar para os seus utilizadores finais empresariais. Trinta (30) dias após notificar os clientes empresariais elegíveis, a Copilot com proteção de dados comerciais tornou-se "predefinida" para esses mesmos clientes. Desde então, o Copilot com a proteção de dados comerciais também ficou disponível para contas específicas do corpo docente M365. O Copilot com a proteção de dados comerciais ficou geralmente disponível para determinados clientes empresariais a 1 de dezembro de 2023. No futuro, planeamos expandir o acesso ao Copilot com proteção de dados comerciais a mais utilizadores do Microsoft Entra ID.

Termos de Utilização e Código de Conduta. Os utilizadores finais do Copilot com proteção de dados comerciais têm de respeitar os Termos de Utilização do Utilizador Final. Estes Termos de Utilização informam os utilizadores finais de utilizações permitidas e impermissíveis e as consequências de violar termos.  

Operações e resposta rápida. Também utilizamos o Copilot nos processos operacionais e de monitorização em curso do Bing para abordar quando a Copilot com proteção de dados comerciais recebe sinais ou recebe um relatório, indicando possíveis utilizações indevidas ou violações dos Termos de Utilização do Utilizador Final

Comentários, monitorização e supervisão. O Copilot com a proteção de dados comerciais utiliza as mesmas ferramentas que o Copilot no Bing para os utilizadores submeterem comentários e comunicarem preocupações, que são revistas pelas equipas de operações da Microsoft. O Copilot nos processos operacionais do Bing também se expandiu para acomodar as funcionalidades no Copilot com experiências de proteção de dados comerciais, por exemplo, atualizando a página Comunicar uma Preocupação para incluir os novos tipos de conteúdo que os utilizadores geram com a ajuda do modelo.  

Para ajudar a garantir que os utilizadores finais têm as informações de que precisam quando interagem com o Copilot com a proteção de dados comerciais, existe documentação do produto disponível na parte inferior deste documento, incluindo as FAQ e as páginas Saiba Mais. 

Os pedidos e respostas gerados pelos utilizadores finais em Copilot com proteção de dados comerciais são processados e armazenados em conformidade com as normas de processamento de dados empresariais. Atualmente, o Copilot com oferta de proteção de dados comerciais só está disponível para clientes empresariais e os seus utilizadores finais adultos autenticados, pelo que não prevemos que as crianças ou jovens sejam utilizadores finais da Copilot com proteção de dados comerciais neste momento. Além disso, a Copilot com proteção de dados comerciais não fornece qualquer publicidade direcionada comportamentalmente aos utilizadores finais. Em vez disso, todos os anúncios apresentados são apenas anúncios contextualmente relevantes.  

Saiba mais

Este documento faz parte de um esforço mais amplo da Microsoft para pôr em prática os nossos princípios de IA. Para saber mais, consulte:

Abordagem da Microsoft à IA Responsável

Padrão de IA Responsável da Microsoft

Recursos de IA Responsáveis da Microsoft  

Cursos do Microsoft Azure Learning em IA Responsável  

Acerca deste documento  

© 2023 Microsoft. All rights reserved. Este documento é fornecido "tal como está" e apenas para fins informativos. As informações e vistas expressas neste documento, incluindo o URL e outras referências de Web site da Internet, podem ser alteradas sem aviso prévio. Corre o risco de utilizá-lo. Alguns exemplos são apenas para ilustração e são fictícios. Nenhuma associação real é pretendida ou inferida.  

Precisa de mais ajuda?

Quer mais opções

Explore os benefícios da assinatura, procure cursos de treinamento, saiba como proteger seu dispositivo e muito mais.

As comunidades ajudam você a fazer e responder perguntas, fazer comentários e ouvir especialistas com conhecimento avançado.