Última atualização: agosto de 2023
O Copilot combina o poder dos modelos de linguagem grandes (LLMs) com a inteligência do Microsoft Graph. Com os seus dados empresariais, o Copilot sintetiza informações de documentos, e-mails e mensagens para lhe dar resumos, responder às suas perguntas de negócio e gerar conteúdos de rascunho a partir dos seus ficheiros, mensagens e muito mais.
O Copilot utiliza um modelo de linguagem grande que simula linguagem natural com base em padrões de grandes quantidades de dados de preparação. O modelo é otimizado para conversação através da Aprendizagem por Reforço com Feedback Humano (RLHF), um método que utiliza demonstrações humanas para orientar o modelo no sentido de produzir um comportamento desejado.
Quando submete um pedido de texto para o Copilot, o modelo gera uma resposta ao dar sugestões sobre o texto que deve aparecer a seguir numa cadeia de palavras. O modelo baseia-se numa linguagem específica do domínio (DSL) que lhe permite especificar o tipo de informações que quer pesquisar e sintetizar a partir dos seus dados do Microsoft 365. É importante ter em atenção que o sistema foi concebido para simular a comunicação humana natural, mas o resultado pode ser impreciso ou estar desatualizado.
Utilize linguagem natural para fazer perguntas de trabalho ao Copilot para ajudar a gerar conteúdo ou para obter um resumo de um tópico, documento ou conversa de chat. Quanto mais específico for o seu pedido, melhores serão os resultados.
Seguem-se alguns exemplos de pedidos para o ajudar a começar:
-
Resumir e-mails não lidos do João
-
Redigir uma mensagem para a minha equipa com itens de ação da minha última reunião
-
Qual é a nossa política de férias?
-
Com quem me vou reunir amanhã?
O Copilot foi concebido para fornecer respostas precisas e informativas com base no conhecimento e nos seus dados disponíveis no Microsoft Graph. No entanto, as respostas podem nem sempre ser precisas, uma vez que são geradas com base em padrões e probabilidades nos dados de linguagem. As respostas incluem referências sempre que possível e é importante verificar as informações. Embora o Copilot tenha funcionalidades para evitar partilhar conteúdo ofensivo ou tópicos potencialmente prejudiciais, mesmo assim poderá ver resultados inesperados. Estamos trabalhando continuamente para melhorar a nossa tecnologia na prevenção de conteúdos prejudiciais.
Se achar que uma resposta está incorreta ou se encontrar conteúdos prejudiciais ou inapropriados, forneça feedback selecionando o ícone de Polegar para baixo e descreva o problema em detalhes.
Para garantir a qualidade, o Copilot recebe perguntas de teste e as respostas são avaliadas com base em critérios como precisão, relevância, tom e inteligência. Estas classificações de avaliação são então utilizadas para melhorar o modelo. É importante ter em atenção que o sistema foi concebido para simular a comunicação humana natural, mas o resultado pode ser impreciso ou estar incorreto ou desatualizado. Fornecer feedback através dos ícones de Polegar para cima e Polegar para baixo ajudará a ensinar ao Copilot que respostas são e não são úteis para si enquanto utilizador. Utilizaremos este feedback para melhorar o Copilot, assim como utilizamos o feedback dos clientes para melhorar outros serviços do Microsoft 365 e aplicações doMicrosoft 365 . Não utilizamos este feedback para treinar os modelos de base utilizados pelo Copilot. Os clientes podem gerir o feedback através de controlos de administração. Para obter mais informações, consulte Gerir o feedback da Microsoft para a sua organização.
Não, já não precisa de ligar a sua conta pessoal à sua conta profissional para utilizar o Copilot. Para utilizar o Copilot no Bing para Empresas, inicie sessão no Microsoft Edge com a sua conta profissional.
Para utilizar Copilot no Bing para Empresas, tem de ter sessão iniciada no Microsoft Edge com a conta Microsoft profissional. Para utilizar o Bing para Consumidores, inicie sessão no Microsoft Edge com a sua conta Microsoft pessoal. Se quiser utilizar ambas ao mesmo tempo, tem de abrir o Microsoft Edge em duas janelas separadas, iniciar sessão numa delas com a sua conta profissional e na outra com a sua conta pessoal.
O Copilot e o Microsoft 365 foram criados com base na abordagem abrangente da Microsoft à segurança, conformidade e privacidade.
Para obter mais informações sobre privacidade, consulte as seguintes informações:
-
Se estiver a utilizar o Copilot para o Microsoft 365 na sua organização (com a sua conta escolar ou profissional), consulte Dados, Privacidade e Segurança do Microsoft Copilot para o Microsoft 365.
-
Se estiver a utilizar o Copilot em aplicações do Microsoft 365 em casa como parte do Copilot Pro (com a sua conta pessoal da Microsoft), consulte Copilot Pro: aplicações do Microsoft 365 e a sua privacidade.
À medida que a IA se prepara para transformar as nossas vidas, temos de definir coletivamente novas regras, normas e práticas para a utilização e o impacto desta tecnologia. A Microsoft está num percurso de IA responsável desde 2017, altura em que definimos os nossos princípios e abordagem para garantir que esta tecnologia é utilizada de uma forma orientada por princípios éticos que colocam as pessoas em primeiro lugar. Leia mais sobre a estrutura da Microsoft para criar sistemas de IA de forma responsável, os princípios éticos que nos orientam e as ferramentas e capacidades que criámos para ajudar os clientes a utilizar a IA com responsabilidade.
O Copilot apresenta apenas os dados a que cada indivíduo pode aceder, utilizando os mesmos controlos subjacentes de acesso aos dados utilizados noutros serviços do Microsoft 365. O modelo de permissões no seu inquilino do Microsoft 365 ajudará a garantir que os dados não serão divulgados entre utilizadores e grupos. Para obter mais informações sobre como a Microsoft protege os seus dados, veja a Declaração de Privacidade da Microsoft.