Iniciar sessão com a Microsoft
Iniciar sessão ou criar uma conta.
Olá,
Selecione uma conta diferente.
Tem várias contas
Selecione a conta com a qual pretende iniciar sessão.

Última atualização: fevereiro de 2024

As noções básicas de Copilot no Bing   

Introdução  

Em fevereiro de 2023, a Microsoft lançou o novo Bing, uma experiência de pesquisa na Web melhorada de IA. Suporta os utilizadores ao resumir os resultados da pesquisa na Web e ao proporcionar uma experiência de chat. Os utilizadores também podem gerar conteúdos criativos, como poemas, piadas, histórias e, com o Bing Criador de Imagens, imagens. O novo Bing avançado em IA é executado numa variedade de tecnologias avançadas da Microsoft e openAI, incluindo GPT-4, um modelo de linguagem grande (LLM) de ponta e DALL-E, um modelo de aprendizagem profunda para gerar imagens digitais a partir de descrições de linguagem natural, ambas da OpenAI. Trabalhámos com ambos os modelos durante meses antes do lançamento público para desenvolver um conjunto personalizado de capacidades e técnicas para associar esta tecnologia de IA de ponta e pesquisa na Web no novo Bing.  Em novembro de 2023, a Microsoft mudou o nome do novo Bing para Copilot no Bing.

Na Microsoft, levamos a sério o nosso compromisso com a IA responsável. A experiência Copilot no Bing foi desenvolvida de acordo com os Princípios de IA da Microsoft, o Standard de IA Responsável da Microsoft e em parceria com especialistas responsáveis em IA em toda a empresa, incluindo o Office de IA Responsável da Microsoft, as nossas equipas de engenharia, a Microsoft Research e o Aether. Pode saber mais sobre a IA responsável na Microsoft aqui.  

Neste documento, descrevemos a nossa abordagem à IA responsável para o Copilot no Bing. Antes do lançamento, adotámos métodos de última geração para identificar, medir e mitigar potenciais riscos e utilização indevida do sistema e para proteger os seus benefícios para os utilizadores. À medida que continuamos a desenvolver o Copilot no Bing desde o primeiro lançamento, também continuamos a aprender e a melhorar os nossos esforços responsáveis de IA. Este documento será atualizado periodicamente para comunicar os nossos métodos e processos em evolução.   

Termos-chave  

O Copilot no Bing é uma experiência de pesquisa na Web melhorada de IA. À medida que é executada numa nova tecnologia poderosa, começamos por definir alguns termos-chave.  

Modelos de machine learning que ajudam a ordenar dados em classes etiquetadas ou categorias de informações. No Copilot no Bing, uma forma de utilizarmos classificadores é ajudar a detetar conteúdos potencialmente prejudiciais submetidos por utilizadores ou gerados pelo sistema para mitigar a geração desse conteúdo e utilização indevida ou abuso do sistema. 

O Copilot no Bing baseia-se nos resultados da pesquisa na Web quando os utilizadores procuram informações. Isto significa que centramos a resposta fornecida à consulta de um utilizador ou solicitamos conteúdos de alto nível a partir da Web e fornecemos ligações para sites para que os utilizadores possam saber mais. O Bing classifica os conteúdos de pesquisa na Web ao ponderar fortemente funcionalidades como relevância, qualidade e credibilidade e frescura. Descrevemos estes conceitos mais detalhadamente em How Bing Delivers Pesquisa Results (veja "Quality and Credibility" ("Qualidade e Credibilidade") em "How Bing Ranks Pesquisa Results").   

Consideramos que as respostas fundamentadas são respostas do Copilot no Bing em que as declarações são suportadas por informações contidas em origens de entrada, como os resultados da pesquisa na Web da consulta ou da linha de comandos, a base de dados de conhecimento de informações verificadas pelo Bing e, para a experiência de chat, o histórico de conversação recente do chat. As respostas não encalhadas são aquelas em que uma instrução não está fundamentada nessas origens de entrada.  

Os modelos de linguagem grandes (LLMs) neste contexto são modelos de IA preparados em grandes quantidades de dados de texto para prever palavras em sequências. Os LLMs são capazes de realizar uma variedade de tarefas, como geração de texto, resumo, tradução, classificação e muito mais.  

O metaprompt é um programa que serve para orientar o comportamento do sistema. Partes do metaprompt ajudam a alinhar o comportamento do sistema com os Princípios de IA da Microsoft e as expectativas dos utilizadores. Por exemplo, o metaprompt pode incluir uma linha como "comunicar no idioma de eleição do utilizador".  

Um método ou combinação de métodos concebidos para reduzir potenciais riscos que podem surgir da utilização de funcionalidades orientadas por IA no Copilot no Bing.  

Texto, voz, imagens e/ou outras consultas ativadas que um utilizador envia para o Bing como uma entrada para o modelo que alimenta novas experiências geradoras orientadas por IA no Bing. Por exemplo, um utilizador pode introduzir o seguinte pedido:  

"Estou a planear uma viagem para o nosso aniversário em setembro. Quais são alguns lugares que podemos ir que estão dentro de um voo de 3 horas de Londres Heathrow?”  

O texto que um utilizador envia para o Bing a partir da barra de pesquisa para pesquisa na Web. Neste documento, distinguimos uma consulta (para pesquisa na Web) de um pedido (para experiências geradoras baseadas em IA no Bing). Por exemplo, um utilizador pode introduzir a seguinte consulta para procurar na Web:  

"destinos de viagem perto do aeroporto de Heathrow em Londres"  

Técnicas utilizadas por especialistas para avaliar as limitações e vulnerabilidades de um sistema e testar a eficácia das mitigações planeadas. Os testes da equipa vermelha e os testes de stress são utilizados para identificar potenciais riscos e são distintos da medição sistemática dos riscos.   

O texto, imagem, gráficos, etc. que Copilot no Bing produz em resposta a um pedido. Os sinónimos para "resposta" incluem "conclusão", "geração" e "resposta". Por exemplo, o Bing pode fornecer a seguinte resposta ao pedido que utilizámos na definição de "prompt" acima:   

"Parabéns pelo teu aniversário! Há muitos lugares para onde você pode ir que estão dentro de um voo de 3 horas de Londres Heathrow. De acordo com uma fonte, algumas das fugas de fim de semana em três horas de avião de Londres são Bilbau, Copenhaga, Reykjavik e Estocolmo 1, 2. Outra fonte sugere que alguns dos melhores lugares para ir na Europa em setembro são Cracóvia, Florença e Lisboa 3, 4. Também pode verificar os voos diretos de Londres Heathrow para vários destinos e ver os apelos para si 5. Espero que tenha uma viagem maravilhosa!”  

Utilizações pretendidas e novas experiências de IA  

O Copilot nas utilizações pretendidas do Bing é ligar os utilizadores a resultados de pesquisa relevantes, rever os resultados de toda a Web para encontrar e resumir respostas que os utilizadores procuram, ajudar os utilizadores a refinar a sua pesquisa para obter respostas com uma experiência de chat e gerar criatividade ao ajudar os utilizadores a criar conteúdos. O Copilot nas experiências de IA geradoras do Bing abaixo suporta o objetivo de ser um copilot com tecnologia de IA para a Web.  

Resumo. Quando os utilizadores submetem uma consulta de pesquisa no Copilot no Bing, o sistema Bing processa a consulta, realiza uma ou mais pesquisas na Web e utiliza os principais resultados da pesquisa na Web para gerar um resumo das informações a apresentar aos utilizadores. Estes resumos incluem referências para ajudar os utilizadores a ver e aceder facilmente aos resultados da pesquisa utilizados para ajudar a resumir o resumo. Os resumos podem aparecer no lado direito da página de resultados da pesquisa e na experiência de chat.  

Experiência de chat. Além do resumo, os utilizadores podem conversar com o Copilot no sistema Bing através de texto, imagem ou entrada de voz, fazer perguntas de seguimento para esclarecer pesquisas e encontrar novas informações e submeter pedidos para gerar conteúdo criativo. As referências também são incluídas na experiência de chat quando o Copilot no Bing está a resumir os resultados da pesquisa na resposta.   

Geração de conteúdo criativo. Tanto na experiência de chat como na página de pesquisa, os utilizadores podem criar poemas, piadas, histórias, imagens e outros conteúdos com a ajuda de Copilot no Bing.  As imagens são criadas por Designer (a antiga Criador de Imagens do Bing) e os utilizadores podem aceder à funcionalidade através de Designer home page, bem como da página Copilot. 

Como funciona o Copilot no Bing?  

Com a Copilot no Bing, desenvolvemos uma abordagem inovadora para levar LLMs de última geração à pesquisa na Web. Quando um utilizador introduz um pedido no Copilot no Bing, o pedido, o histórico de conversações recentes, o metaprompt e os principais resultados da pesquisa são enviados como entradas para o LLM. O modelo gera uma resposta com o pedido do utilizador e o histórico de conversações recentes para contextualizar o pedido, a metapromptação para alinhar as respostas com os Princípios de IA da Microsoft e as expetativas do utilizador e os resultados da pesquisa para obter respostas básicas em conteúdos existentes e de alto nível da Web.   

As respostas são apresentadas aos utilizadores em vários formatos diferentes, como ligações tradicionais para conteúdo Web, resumos gerados por IA, imagens e respostas de chat. Os resumos e as respostas de chat que dependem dos resultados da pesquisa na Web incluirão referências e uma secção "Saiba mais" abaixo das respostas, com ligações para resultados de pesquisa que foram utilizados para fundamentar a resposta. Os utilizadores podem clicar nestas ligações para saber mais sobre um tópico e as informações utilizadas para fundamentar a resposta de resumo ou chat.    

Na experiência Copilot, os utilizadores podem efetuar pesquisas na Web de forma conversacional ao adicionar contexto à sua linha de comandos e interagir com as respostas do sistema para especificar ainda mais os seus interesses de pesquisa. Por exemplo, um utilizador pode fazer perguntas de seguimento, pedir informações de esclarecimento adicionais ou responder ao sistema de forma conversacional. Na experiência de chat, os utilizadores também podem selecionar uma resposta a partir de sugestões pré-escritas, às quais chamamos sugestões de chat. Estes botões são apresentados após cada resposta do Copilot e fornecem pedidos sugeridos para continuar a conversação na experiência de chat. As sugestões de chat também aparecem juntamente com conteúdo resumido na página de resultados da pesquisa como um ponto de entrada para a experiência de chat.  

Copilot no Bing também permite que um utilizador crie histórias, poemas, letras de música e imagens com a ajuda do Bing. Quando o Copilot no Bing deteta a intenção do utilizador de gerar conteúdo criativo (por exemplo, o pedido começa com "escreva-me um ..."), o sistema irá, na maioria dos casos, gerar conteúdo reativo à linha de comandos do utilizador. Da mesma forma, quando o Copilot no Bing deteta a intenção do utilizador de gerar uma imagem (por exemplo, o pedido começa com "desenhe-me um ..."), o sistema irá, na maioria dos casos, gerar uma imagem reativa para o pedido do utilizador. No Visual Pesquisa na experiência chat, com uma imagem tirada pela câmara do utilizador, carregada a partir do dispositivo do utilizador ou ligada a partir da Web, os utilizadores podem pedir ao Copilot no Bing para compreender o contexto, interpretar e responder a perguntas sobre a imagem.  Os utilizadores também podem carregar os respetivos ficheiros para o Copilot para interpretar, converter, processar ou calcular informações dos mesmos. Na experiência Microsoft Designer a que os utilizadores podem aceder através do Copilot no Bing, os utilizadores podem não só gerar imagens através de pedidos, mas também redimensioná-las ou reestilizá-las, ou tornar as edições como o fundo desfocado ou tornar as cores mais vivas. 

Agora, os utilizadores com contas Microsoft (MSA) também têm a opção de subscrever Copilot Pro que oferece uma experiência melhorada, incluindo desempenho acelerado, criação mais rápida de imagens de IA e, em breve, a capacidade de criar os seus próprios GPTs Copilot. Copilot Pro está atualmente disponível em países limitados, e planeamos disponibilizar Copilot Pro em mais mercados em breve.

Na experiência Copilot, os utilizadores podem aceder a GPTs copilot. Um GPT copilot, como Designer GPT, é uma versão personalizada do Microsoft Copilot sobre um tópico que lhe interessa particularmente, como fitness, viagens e culinária, que pode ajudar a transformar ideias vagas ou gerais em pedidos mais específicos com saídas, incluindo textos e imagens. Em Copilot, os utilizadores podem ver GPTs Copilot disponíveis e os utilizadores com contas Copilot Pro terão acesso em breve ao Copilot GPT Builder, uma funcionalidade que permite aos utilizadores criar e configurar um GPT Copilot personalizado. As mitigações de IA Responsável mencionadas acima para Copilot no Bing aplicam-se aos GPTs copilot.

Para saber mais sobre como funcionam os GPTs Copilot Pro e Copilot, visite aqui.

O Copilot no Bing esforça-se por fornecer resultados de pesquisa diversificados e abrangentes com o seu compromisso de acesso livre e aberto às informações. Ao mesmo tempo, os nossos esforços de qualidade do produto incluem trabalhar para evitar inadvertidamente promover conteúdo potencialmente prejudicial para os utilizadores. Estão disponíveis mais informações sobre a forma como o Bing classifica os conteúdos, incluindo a forma como define a relevância e a qualidade e credibilidade de uma página Web, nas "Diretrizes do Bing Webmaster".   Estão disponíveis mais informações sobre os princípios de moderação de conteúdos do Bing em "How Bing delivers search results".   

Na experiência Copilot no Windows, o Copilot no Bing pode trabalhar com o sistema operativo Windows para fornecer competências específicas do Windows, tais como alterar o tema ou o fundo do utilizador e alterar definições como áudio, Bluetooth e rede. Estas experiências permitem ao utilizador configurar as respetivas definições e melhorar a sua experiência de utilizador através de pedidos de linguagem natural para o LLM. A funcionalidade específica da aplicação também pode ser fornecida a partir de plug-ins de aplicações de terceiros. Estes podem automatizar tarefas repetitivas e alcançar uma maior eficiência do utilizador. Uma vez que os LLMs podem ocasionalmente cometer erros, são fornecidos pedidos de confirmação do utilizador adequados para que o utilizador seja o árbitro final das alterações que podem ser feitas. 

Identificar, medir e mitigar riscos  

Tal como outras tecnologias transformacionais, tirar partido dos benefícios da IA não é isento de riscos e uma parte fundamental do programa de IA Responsável da Microsoft foi concebida para identificar potenciais riscos, medir a sua propensão e criar mitigações para os abordar. Orientados pelos nossos Princípios de IA e pela nossa Norma de IA Responsável, procurámos identificar, medir e mitigar potenciais riscos e utilização indevida do Copilot no Bing, ao mesmo tempo que protegemos as utilizações transformadoras e benéficas que a nova experiência proporciona. Nas secções abaixo, descrevemos a nossa abordagem iterativa para identificar, medir e mitigar potenciais riscos.   

A nível de modelo, o nosso trabalho começou com análises exploratórias de GPT-4 no final do verão de 2022. Isto incluiu a realização de testes extensivos da equipa vermelha em colaboração com a OpenAI. Este teste foi concebido para avaliar como a tecnologia mais recente funcionaria sem quaisquer salvaguardas adicionais aplicadas à mesma. A nossa intenção específica neste momento era produzir respostas prejudiciais, encontrar potenciais vias para utilização indevida e identificar capacidades e limitações. As nossas aprendizagens combinadas no OpenAI e na Microsoft contribuíram para os avanços no desenvolvimento de modelos e, para nós, na Microsoft, informámos a nossa compreensão dos riscos e contribuíram para estratégias de mitigação antecipadas para o Copilot no Bing.  

Além dos testes da equipa vermelha ao nível do modelo, uma equipa multidisciplinar de especialistas realizou inúmeras rondas de testes de equipas vermelhas ao nível da aplicação no Copilot em experiências Bing AI antes de as disponibilizar publicamente na nossa pré-visualização de lançamento limitada. Este processo ajudou-nos a compreender melhor como o sistema poderia ser explorado por atores adversos e melhorar as nossas mitigações. Os técnicos de teste de stress não adversos também avaliaram extensivamente as novas funcionalidades do Bing quanto a deficiências e vulnerabilidades. Após o lançamento, as novas experiências de IA no Bing estão integradas na infraestrutura de teste e medição de produção existente da organização de engenharia do Bing. Por exemplo, os técnicos de teste de equipas vermelhas de diferentes regiões e fundos tentam, de forma contínua e sistemática, comprometer o sistema e as suas conclusões são utilizadas para expandir os conjuntos de dados que o Bing utiliza para melhorar o sistema.  

Os testes da equipa vermelha e os testes de stress podem apresentar instâncias de riscos específicos, mas em utilizadores de produção terão milhões de diferentes tipos de conversações com o Copilot no Bing. Além disso, as conversações são multiturnas e contextuais e a identificação de conteúdo prejudicial numa conversação é uma tarefa complexa. Para compreender melhor e abordar o potencial de riscos em Copilot em experiências Bing AI, desenvolvemos métricas de IA responsáveis adicionais específicas para essas novas experiências de IA para medir potenciais riscos, como jailbreaks, conteúdo prejudicial e conteúdo não encalçado. Também ativemos a medição em escala através de pipelines de medição parcialmente automatizados. Sempre que o produto é alterado, as mitigações existentes são atualizadas ou são propostas novas mitigações, atualizamos os nossos pipelines de medição para avaliar o desempenho do produto e as métricas de IA responsáveis.  

Como exemplo ilustrativo, o pipeline de medição parcialmente automatizado atualizado para conteúdo prejudicial inclui duas grandes inovações: simulação de conversação e anotação de conversação automatizada e verificada por humanos. Em primeiro lugar, especialistas responsáveis em IA criaram modelos para capturar a estrutura e o conteúdo de conversações que poderiam resultar em diferentes tipos de conteúdo prejudicial. Estes modelos foram então fornecidos a um agente de conversação que interagiu como um utilizador hipotético com o Copilot no Bing, gerando conversações simuladas. Para identificar se estas conversações simuladas continham conteúdo prejudicial, tomámos orientações que são normalmente utilizadas por linguistas especialistas para etiquetar dados e modificá-los para serem utilizados por GPT-4 para etiquetar conversações em escala, refinando as diretrizes até que houvesse um acordo significativo entre conversações com etiquetas de modelo e conversações com etiquetas humanas. Por fim, utilizámos as conversações com etiquetas de modelo para calcular uma métrica de IA responsável que captura a eficácia do Copilot no Bing para mitigar conteúdo prejudicial.   

Os nossos pipelines de medição permitem-nos realizar rapidamente medições para potenciais riscos em escala. À medida que identificamos novos problemas durante o período de pré-visualização e os testes da equipa vermelha em curso, continuamos a expandir os conjuntos de medição para avaliar riscos adicionais.  

À medida que identificámos potenciais riscos e utilização indevida através de processos como testes de equipa vermelha e testes de stress e medimo-los com as abordagens inovadoras descritas acima, desenvolvemos mitigações adicionais às utilizadas para a pesquisa tradicional. Abaixo, descrevemos algumas dessas mitigações. Continuaremos a monitorizar o Copilot nas experiências Bing AI para melhorar o desempenho e as mitigações dos produtos.  

Lançamento faseado, avaliação contínua. Estamos empenhados em aprender e melhorar continuamente a nossa abordagem de IA responsável à medida que as nossas tecnologias e o comportamento dos utilizadores evoluem. A nossa estratégia de lançamento incremental tem sido uma parte fundamental da forma como movemos a nossa tecnologia de forma segura dos laboratórios para o mundo, e estamos empenhados num processo deliberado e atencioso para garantir os benefícios do Copilot no Bing. Limitar o número de pessoas com acesso durante o período de pré-visualização permitiu-nos descobrir como as pessoas utilizam o Copilot no Bing, incluindo a forma como as pessoas podem utilizá-lo indevidamente, para que possamos tentar mitigar problemas emergentes antes do lançamento mais amplo. Por exemplo, exigimos que os utilizadores se autentiquem com a respetiva conta Microsoft antes de acederem à nova experiência completa do Bing. Os utilizadores não autenticados só podem aceder a uma pré-visualização limitada da experiência. Estes passos desencorajam os abusos e ajudam-nos a (conforme necessário) tomar as medidas adequadas em resposta às violações do Código de Conduta.  Estamos a fazer alterações ao Copilot no Bing diariamente para melhorar o desempenho do produto, melhorar as mitigações existentes e implementar novas mitigações em resposta às nossas aprendizagens durante o período de pré-visualização.  

Base nos resultados da pesquisa. Conforme indicado acima, o Copilot no Bing foi concebido para fornecer respostas suportadas pelas informações nos resultados da pesquisa na Web quando os utilizadores procuram informações. Por exemplo, o sistema é fornecido com texto dos principais resultados de pesquisa e instruções através do metaprompt para fundamentar a sua resposta. No entanto, ao resumir conteúdo da Web, a Copilot no Bing pode incluir informações na sua resposta que não estão presentes nas suas origens de entrada. Por outras palavras, pode produzir resultados não encalhados. As nossas primeiras avaliações indicaram que os resultados não fundamentados no chat podem ser mais predominantes para determinados tipos de pedidos ou tópicos do que outros, como pedir cálculos matemáticos, informações financeiras ou de mercado (por exemplo, ganhos da empresa, dados de desempenho de ações) e informações como datas precisas de eventos ou preços específicos de itens. Os utilizadores devem ter sempre cuidado e utilizar o seu melhor juízo ao ver resultados de pesquisa resumidos, seja na página de resultados da pesquisa ou na experiência de chat. Tomámos várias medidas para mitigar o risco de os utilizadores dependerem excessivamente de conteúdos gerados sem terra em cenários de resumo e experiências de chat. Por exemplo, as respostas no Copilot no Bing baseadas nos resultados da pesquisa incluem referências aos sites de origem para os utilizadores verificarem a resposta e saberem mais. Os utilizadores também recebem um aviso explícito de que estão a interagir com um sistema de IA e são aconselhados a verificar os materiais de origem de resultados da Web para os ajudar a utilizar o seu melhor julgamento.  

Classificadores baseados em IA e metaprompmpting para mitigar potenciais riscos ou utilização indevida. A utilização de LLMs pode produzir conteúdo problemático que pode levar a riscos ou utilização indevida. Exemplos podem incluir saída relacionada com auto-danos, violência, conteúdo gráfico, propriedade intelectual, informações imprecisas, discurso odioso ou texto que possa estar relacionado com atividades ilegais. Classificadores e metaprompting são dois exemplos de mitigações que foram implementadas no Copilot no Bing para ajudar a reduzir o risco destes tipos de conteúdo. Os classificadores classificam texto para sinalizar diferentes tipos de conteúdo potencialmente prejudicial em consultas de pesquisa, pedidos de chat ou respostas geradas. O Bing utiliza classificadores e filtros de conteúdo baseados em IA, que se aplicam a todos os resultados de pesquisa e funcionalidades relevantes; Concebemos classificadores de pedidos adicionais e filtros de conteúdo especificamente para resolver possíveis riscos gerados pelo Copilot nas funcionalidades do Bing. Os sinalizadores levam a potenciais mitigações, como não devolver conteúdo gerado ao utilizador, desviar o utilizador para um tópico diferente ou redirecionar o utilizador para a pesquisa tradicional. O metaprompting envolve dar instruções ao modelo para orientar o seu comportamento, incluindo para que o sistema se comporte de acordo com os Princípios de IA da Microsoft e as expectativas dos utilizadores. Por exemplo, o metaprompt pode incluir uma linha como "comunicar no idioma de eleição do utilizador".   

Proteger a privacidade no Visual Pesquisa no Copilot no Bing. Quando os utilizadores carregam uma imagem como parte do pedido de chat, a Copilot no Bing irá utilizar tecnologia desfocada por rostos antes de enviar a imagem para o modelo de IA. A desfocagem facial é utilizada para proteger a privacidade dos indivíduos na imagem. A tecnologia desfocada no rosto depende de pistas de contexto para determinar onde desfocar e tentar desfocar todos os rostos. Com os rostos desfocados, o modelo de IA pode comparar a imagem introduzida com as imagens disponíveis publicamente na Internet. Como resultado, por exemplo, Copilot no Bing pode ser capaz de identificar um jogador de basquetebol famoso a partir de uma foto desse jogador num campo de basquetebol ao criar uma representação numérica que reflita o número da camisola do jogador, a cor da camisola, a presença de um aro de basquetebol, etc. O Copilot no Bing não armazena representações numéricas de pessoas a partir de imagens carregadas e não as partilha com terceiros. O Copilot no Bing utiliza representações numéricas das imagens que os utilizadores carregam apenas para responder aos pedidos dos utilizadores e, em seguida, são eliminadas no prazo de 30 dias após o fim do chat.    

Se o utilizador pedir ao Copilot no Bing informações sobre uma imagem carregada, as respostas de chat podem refletir o impacto da desfocagem facial na capacidade do modelo de fornecer informações sobre a imagem carregada. Por exemplo, Copilot no Bing pode descrever alguém como tendo um rosto desfocado.    

Limitação do desfasamento de conversação. Durante o período de pré-visualização, aprendemos que sessões de chat muito longas podem resultar em respostas repetitivas, inúteis ou inconsistentes com Copilot no tom pretendido do Bing. Para resolver este desfasamento de conversação, limitámos o número de turnos (trocas que contêm uma pergunta de utilizador e uma resposta do Copilot no Bing) por sessão de chat. Continuamos a avaliar abordagens adicionais para mitigar este problema.  

Melhoramento de pedidos. Em alguns casos, o pedido de um utilizador pode ser ambíguo. Quando isto acontece, o Copilot no Bing pode utilizar o LLM para ajudar a criar mais detalhes no pedido para ajudar a garantir que os utilizadores obtêm a resposta que procuram. Este melhoramento de pedidos não depende de qualquer conhecimento do utilizador ou das pesquisas anteriores, mas sim do modelo de IA. Estas consultas revistas serão visíveis no histórico de conversas do utilizador e, tal como outras pesquisas, podem ser eliminadas através de controlos no produto.  

Design centrado no utilizador e experiência de utilizador intervenções. O design centrado no utilizador e as experiências de utilizador são um aspeto essencial da abordagem da Microsoft à IA responsável. O objetivo é criar o design de produtos de raiz nas necessidades e expectativas dos utilizadores. À medida que os utilizadores interagem com o Copilot no Bing pela primeira vez, oferecemos vários pontos táteis concebidos para ajudá-los a compreender as capacidades do sistema, divulgar-lhes que o Copilot no Bing é alimentado por IA e comunicar limitações. A experiência foi concebida desta forma para ajudar os utilizadores a tirar o máximo partido do Copilot no Bing e minimizar o risco de dependência excessiva. Os elementos da experiência também ajudam os utilizadores a compreender melhor o Copilot no Bing e as suas interações com o mesmo. Estas incluem sugestões de chat específicas para IA responsável (por exemplo, como é que o Bing utiliza a IA? Por que motivo o Copilot no Bing não responde a alguns tópicos?), explicações de limitações, formas de os utilizadores saberem mais sobre como o sistema funciona e comunicar feedback e referências facilmente navegáveis que aparecem em respostas para mostrar aos utilizadores os resultados e páginas nas quais as respostas estão fundamentadas.  

Divulgação de IA. O Copilot no Bing fornece vários pontos táteis para uma divulgação significativa da IA em que os utilizadores são notificados de que estão a interagir com um sistema de IA, bem como oportunidades para saber mais sobre o Copilot no Bing. Capacitar os utilizadores com este conhecimento pode ajudá-los a evitar a dependência excessiva da IA e a saber mais sobre os pontos fortes e limitações do sistema.  

Proveniência dos media.Microsoft Designer ativou a funcionalidade "Credenciais de Conteúdo", que utiliza métodos criptográficos para marcar a origem, ou "proveniência", de todas as imagens geradas por IA criadas no Designer. A funcionalidade de marca d'água digital invisível mostra a origem, a hora e a data de criação original e estas informações não podem ser alteradas. A tecnologia utiliza normas definidas pela Coalition for Content and Authenticity (C2PA) para adicionar uma camada extra de confiança e transparência para imagens geradas por IA. A Microsoft é co-fundadora da C2PA e contribuiu com a tecnologia de proveniência de conteúdo digital principal. 

Termos de Utilização e Código de Conduta. Este recurso rege a utilização do Copilot no Bing. Os utilizadores devem respeitar os Termos de Utilização e o Código de Conduta que, entre outras coisas, os informa de utilizações admissíveis e impermissíveis e das consequências de violação dos termos. Os Termos de Utilização também fornecem divulgações adicionais para os utilizadores e servem como uma referência útil para os utilizadores saberem mais sobre o Copilot no Bing.   

Operações e resposta rápida. Também utilizamos o Copilot nos processos operacionais e de monitorização em curso do Bing para abordar quando o Copilot no Bing recebe sinais ou recebe um relatório, indicando possíveis utilizações indevidas ou violações dos Termos de Utilização ou Código de Conduta.  

Comentários, monitorização e supervisão. A experiência Copilot no Bing baseia-se em ferramentas existentes que permitem aos utilizadores submeter comentários e comunicar preocupações, que são revistas pelas equipas de operações da Microsoft. Os processos operacionais do Bing também se expandiram para acomodar as funcionalidades na experiência Copilot no Bing, por exemplo, atualizar a página Comunicar uma Preocupação para incluir os novos tipos de conteúdo que os utilizadores geram com a ajuda do modelo.   

A nossa abordagem para identificar, medir e mitigar riscos continuará a evoluir à medida que aprendemos mais e já estamos a fazer melhorias com base nos comentários recolhidos durante o período de pré-visualização.     

Deteção de conteúdo automatizada. Quando os utilizadores carregam imagens como parte do pedido de chat, a Copilot no Bing implementa ferramentas para detetar imagens de exploração sexual infantil e abuso (CSEAI), nomeadamente tecnologia de correspondência de hash do PhotoDNA. A Microsoft desenvolveu o PhotoDNA para ajudar a encontrar duplicados de CSEAI conhecido. A Microsoft reporta todos os CSEAI aparentes ao Centro Nacional de Crianças Desaparecidas e Exploradas (NCMEC), conforme exigido pela lei norte-americana. Quando os utilizadores carregam ficheiros para analisar ou processar, a Copilot implementa a análise automatizada para detetar conteúdo que pode levar a riscos ou utilização indevida, como texto que pode estar relacionado com atividades ilegais ou código malicioso.

Proteger a privacidade  

A crença de longa data da Microsoft de que a privacidade é um direito humano fundamental informou todas as fases do desenvolvimento e implementação da Copilot na experiência do Bing pela Microsoft. Os nossos compromissos em proteger a privacidade de todos os utilizadores, incluindo o fornecimento de transparência e controlo sobre os seus dados e a integração da privacidade por predefinição através da minimização de dados e limitação de finalidade, são fundamentais para o Copilot no Bing. À medida que evoluímos a nossa abordagem para fornecer o Copilot nas experiências de IA geradas do Bing, vamos explorar continuamente a melhor forma de proteger a privacidade. Este documento será atualizado à medida que o fizermos. Mais informações sobre como a Microsoft protege a privacidade dos nossos utilizadores estão disponíveis na Declaração de Privacidade da Microsoft.  

Na experiência Copilot no Windows, as competências do Windows podem, como parte das respetivas funcionalidades, partilhar informações de utilizador com a conversação de chat. Isto está sujeito à aprovação do utilizador e são apresentados pedidos de IU para confirmar a intenção do utilizador antes de as informações do utilizador serem partilhadas com a conversação de chat.

A Microsoft continua a considerar as necessidades das crianças e jovens como parte das avaliações de risco de novas funcionalidades de IA geradas no Copilot no Bing. Todas as contas de menores da Microsoft que identifiquem o utilizador com menos de 13 anos ou conforme especificado de outra forma nos termos da legislação local não podem iniciar sessão para aceder à nova experiência completa do Bing.   

Conforme descrito acima, para todos os utilizadores, implementámos salvaguardas que mitigam conteúdo potencialmente prejudicial. No Copilot no Bing, os resultados são definidos como no Modo Rigoroso da Pesquisa Segura do Bing, que tem o mais alto nível de proteção de segurança na pesquisa principal do Bing, impedindo assim que os utilizadores, incluindo utilizadores adolescentes, sejam expostos a conteúdo potencialmente prejudicial. Além das informações que fornecemos neste documento e nas nossas FAQs sobre as funcionalidades de chat, estão disponíveis aqui mais informações sobre como funciona o Copilot no Bing para evitar responder com conteúdo ofensivo inesperado nos resultados da pesquisa.  

A Microsoft comprometeu-se a não fornecer publicidade personalizada com base no comportamento online de crianças cuja data de nascimento na sua conta Microsoft os identifique como menores de 18 anos. Esta proteção importante irá estender-se aos anúncios no Copilot nas funcionalidades do Bing. Os utilizadores podem ver anúncios contextuais com base na consulta ou no pedido utilizado para interagir com o Bing.  

Para desbloquear o potencial transformador da IA geradora, temos de criar confiança na tecnologia através da capacitação dos indivíduos para compreenderem como os seus dados são utilizados e fornecer-lhes opções e controlos significativos sobre os seus dados. A Copilot no Bing foi concebida para priorizar a agência humana, através do fornecimento de informações sobre como o produto funciona, bem como as suas limitações, e através do alargamento das nossas escolhas e controlos robustos de consumidor à Copilot nas funcionalidades do Bing.   

A Declaração de Privacidade da Microsoft fornece informações sobre as nossas práticas de privacidade transparentes para proteger os nossos clientes e define informações sobre os controlos que dão aos nossos utilizadores a capacidade de ver e gerir os seus dados pessoais. Para ajudar a garantir que os utilizadores têm as informações de que precisam quando estão a interagir com as novas funcionalidades de conversação do Bing, as divulgações no produto informam os utilizadores de que estão a interagir com um produto de IA e fornecemos ligações para mais FAQs e explicações sobre como estas funcionalidades funcionam. A Microsoft continuará a ouvir os comentários dos utilizadores e irá adicionar mais detalhes sobre as funcionalidades de conversação do Bing conforme adequado para suportar a compreensão da forma como o produto funciona.   

A Microsoft também fornece aos seus utilizadores ferramentas robustas para exercer os seus direitos sobre os seus dados pessoais. Para os dados recolhidos pelo Copilot no Bing, incluindo através de consultas e pedidos de utilizador, o Dashboard de Privacidade da Microsoft fornece aos utilizadores autenticados (com sessão iniciada) ferramentas para exercer os seus direitos de titulares de dados, incluindo ao fornecer aos utilizadores a capacidade de ver, exportar e eliminar o histórico de conversações armazenados. A Microsoft continua a receber feedback sobre como quer gerir a sua nova experiência do Bing, incluindo através da utilização de experiências de gestão de dados em contexto.   

O Copilot no Bing também honra os pedidos sob o direito europeu de serem esquecidos, seguindo o processo que a Microsoft desenvolveu e refinou para a funcionalidade de pesquisa tradicional do Bing. Todos os utilizadores podem comunicar preocupações relativamente ao conteúdo gerado e às respostas aqui, e os nossos utilizadores europeus podem utilizar este formulário para submeter pedidos para bloquear os resultados da pesquisa na Europa com o direito de serem esquecidos.   

O Copilot no Bing respeitará as opções de privacidade dos utilizadores, incluindo as que foram anteriormente efetuadas no Bing, como o consentimento para a recolha e utilização de dados que é pedida através de faixas de cookies e controlos disponíveis no Dashboard de Privacidade da Microsoft. Para ajudar a permitir a autonomia dos utilizadores e a agência na tomada de decisões informadas, utilizámos o nosso processo de revisão interna para examinar cuidadosamente a forma como as escolhas são apresentadas aos utilizadores. 

Além dos controlos disponíveis através do Dashboard de Privacidade da Microsoft, que permitem aos utilizadores ver, exportar e eliminar o histórico de pesquisas, incluindo componentes do histórico de chat, os utilizadores autenticados que ativaram a funcionalidade Histórico de conversas no produto têm a capacidade de ver, aceder e transferir o histórico de conversas através de controlos no produto. Os utilizadores podem limpar conversas específicas do Histórico de conversas ou desativar totalmente a funcionalidade Histórico de conversas em qualquer altura, visitando a página Definições do Bing. Os utilizadores também podem optar por permitir que a personalização aceda a uma experiência mais personalizada com respostas personalizadas. Os utilizadores podem optar ativamente por não participar e optar ativamente por não participar na personalização em qualquer altura nas Definições do Chat na página Definições do Bing.  Limpar conversas específicas do Histórico de conversas impede que sejam utilizadas para personalização.  
 
São fornecidas mais informações sobre o Histórico de conversas e personalização aos utilizadores no Copilot nas FAQs do Bing. 

O Copilot no Bing foi criado tendo em conta a privacidade, para que os dados pessoais sejam recolhidos e utilizados apenas conforme necessário e não sejam mantidos mais do que o necessário. Conforme mencionado acima, o Visual Pesquisa na funcionalidade Copilot no Bing implementa um mecanismo que desfoca rostos nas imagens no momento do carregamento pelos utilizadores, para que as imagens faciais não sejam processadas ou armazenadas. Mais informações sobre os dados pessoais que o Bing recolhe, como são utilizados e como são armazenados e eliminados estão disponíveis na Declaração de Privacidade da Microsoft, que também fornece informações sobre as novas funcionalidades de chat do Bing.   

O Copilot no Bing tem políticas de retenção e eliminação de dados para ajudar a garantir que os dados pessoais recolhidos através das funcionalidades de chat do Bing só são mantidos o tempo necessário.   

Continuaremos a aprender e a evoluir a nossa abordagem na disponibilização do Copilot no Bing e, à medida que o fizermos, continuaremos a trabalhar em várias disciplinas para alinhar a nossa inovação de IA com valores humanos e direitos fundamentais, incluindo proteger os jovens utilizadores e a privacidade.   

Copilot com proteção de dados comerciais 

O Copilot com proteção de dados comerciais, anteriormente conhecido como Bing Chat Enterprise ("BCE"), foi lançado pela Microsoft em pré-visualização pública gratuita em julho de 2023 como um suplemento gratuito para determinados clientes do M365. O Copilot com proteção de dados comerciais é uma experiência de pesquisa na Web melhorada de IA para utilizadores finais empresariais. 

Tal como acontece com o Copilot no Bing, quando um Copilot com o utilizador final de proteção de dados comerciais introduz um pedido na interface, o pedido, a conversação imediata, os principais resultados da pesquisa e o metaprompt são enviados como entradas para o LLM. O modelo gera uma resposta através do histórico de conversações imediata e de pedido para contextualizar o pedido, o metapromp para alinhar as respostas com os Princípios de IA da Microsoft e as expetativas do utilizador e os resultados da pesquisa para obter respostas básicas em conteúdos existentes e de alto nível da Web. Isto funciona da mesma forma que o Copilot no Bing, conforme descrito acima neste documento, com a exceção de que o Copilot com proteção de dados comerciais depende apenas do histórico de conversações imediatas (não do histórico de conversações recentes) devido ao histórico de conversas armazenados não ser uma funcionalidade atualmente suportada. Designer e visual Pesquisa estão agora disponíveis nesta versão. 

Tal como outras tecnologias transformacionais, tirar partido dos benefícios da IA não é isento de riscos e uma parte fundamental do programa de IA Responsável da Microsoft foi concebida para identificar potenciais riscos, medir a sua propensão e criar mitigações para os abordar. Mais uma vez, a descrição acima dos esforços da Microsoft para identificar, medir e mitigar potenciais riscos para o Copilot no Bing também se aplica a esta versão, com alguns esclarecimentos sobre mitigações descritos abaixo: 

Lançamento faseado, avaliação contínua. Tal como acontece com o Copilot Bing, para a Copilot com a proteção de dados comerciais, também tomámos uma abordagem de lançamento incremental. A 18 de julho de 2023, a Copilot com proteção de dados comerciais ficou disponível como uma pré-visualização gratuita para clientes empresariais elegíveis com contas M365 específicas para ativar para os seus utilizadores finais empresariais. Trinta (30) dias após notificar os clientes empresariais elegíveis, a Copilot com proteção de dados comerciais tornou-se "predefinida" para esses mesmos clientes. Desde então, o Copilot com a proteção de dados comerciais também ficou disponível para contas específicas do corpo docente M365. O Copilot com a proteção de dados comerciais ficou geralmente disponível para determinados clientes empresariais a 1 de dezembro de 2023. No futuro, planeamos expandir o acesso ao Copilot com a proteção de dados comerciais a mais Microsoft Entra ID utilizadores.

Termos de Utilização e Código de Conduta. Os utilizadores finais do Copilot com proteção de dados comerciais têm de respeitar os Termos de Utilização do Utilizador Final. Estes Termos de Utilização informam os utilizadores finais de utilizações permitidas e impermissíveis e as consequências de violar termos.  

Operações e resposta rápida. Também utilizamos o Copilot nos processos operacionais e de monitorização em curso do Bing para abordar quando a Copilot com proteção de dados comerciais recebe sinais ou recebe um relatório, indicando possíveis utilizações indevidas ou violações dos Termos de Utilização do Utilizador Final

Comentários, monitorização e supervisão. O Copilot com a proteção de dados comerciais utiliza as mesmas ferramentas que o Copilot no Bing para os utilizadores submeterem comentários e comunicarem preocupações, que são revistas pelas equipas de operações da Microsoft. O Copilot nos processos operacionais do Bing também se expandiu para acomodar as funcionalidades no Copilot com experiências de proteção de dados comerciais, por exemplo, atualizando a página Comunicar uma Preocupação para incluir os novos tipos de conteúdo que os utilizadores geram com a ajuda do modelo.  

Para ajudar a garantir que os utilizadores finais têm as informações de que precisam quando interagem com o Copilot com a proteção de dados comerciais, existe documentação do produto disponível na parte inferior deste documento, incluindo as FAQ e as páginas Saiba Mais. 

Os pedidos e respostas gerados pelos utilizadores finais em Copilot com proteção de dados comerciais são processados e armazenados em conformidade com as normas de processamento de dados empresariais. Atualmente, o Copilot com oferta de proteção de dados comerciais só está disponível para clientes empresariais e os seus utilizadores finais adultos autenticados, pelo que não prevemos que as crianças ou jovens sejam utilizadores finais da Copilot com proteção de dados comerciais neste momento. Além disso, a Copilot com proteção de dados comerciais não fornece qualquer publicidade direcionada comportamentalmente aos utilizadores finais. Em vez disso, todos os anúncios apresentados são apenas anúncios contextualmente relevantes.  

Saiba mais

Este documento faz parte de um esforço mais amplo da Microsoft para pôr em prática os nossos princípios de IA. Para saber mais, consulte:

Abordagem da Microsoft à IA Responsável

Padrão de IA Responsável da Microsoft

Recursos de IA Responsáveis da Microsoft  

Cursos do Microsoft Azure Learning em IA Responsável  

Acerca deste documento  

© 2023 Microsoft. Todos os direitos reservados. Este documento é fornecido "tal como está" e apenas para fins informativos. As informações e vistas expressas neste documento, incluindo o URL e outras referências de Web site da Internet, podem ser alteradas sem aviso prévio. Corre o risco de utilizá-lo. Alguns exemplos são apenas para ilustração e são fictícios. Nenhuma associação real é pretendida ou inferida.  

Precisa de mais ajuda?

Quer mais opções?

Explore os benefícios da subscrição, navegue em cursos de formação, saiba como proteger o seu dispositivo e muito mais.

As comunidades ajudam-no a colocar e a responder perguntas, a dar feedback e a ouvir especialistas com conhecimentos abrangentes.

Estas informações foram úteis?

Quão satisfeito está com a qualidade do idioma?
O que afetou a sua experiência?
Ao selecionar submeter, o seu feedback será utilizado para melhorar os produtos e serviços da Microsoft. O seu administrador de TI poderá recolher estes dados. Declaração de Privacidade.

Obrigado pelo seu feedback!

×