Iniciar sesión con Microsoft
Iniciar sesión o crear una cuenta
Hola:
Seleccione una cuenta diferente.
Tiene varias cuentas
Elija la cuenta con la que desea iniciar sesión.

Última actualización: enero de 2024

Conceptos básicos de Copilot en Bing   

Introducción  

En febrero de 2023, Microsoft lanzó la nueva Bing, una experiencia de búsqueda web mejorada con IA. Permite a los usuarios resumir los resultados de búsqueda web y proporcionar una experiencia de chat. Los usuarios también pueden generar contenido creativo, como poemas, chistes, historias y, con Generador de imágenes de Bing, imágenes. La nueva Bing mejorada con IA se ejecuta en una variedad de tecnologías avanzadas de Microsoft y OpenAI, incluyendo GPT-4, un modelo de lenguaje de gran tamaño de vanguardia (LLM) y DALL-E, un modelo de aprendizaje profundo para generar imágenes digitales a partir de descripciones de lenguaje natural, ambas de OpenAI. Hemos trabajado con ambos modelos durante meses antes del lanzamiento público para desarrollar un conjunto personalizado de capacidades y técnicas para unirse a esta tecnología de IA de vanguardia y la búsqueda web en el nuevo Bing.  En noviembre de 2023, Microsoft cambió el nombre del nuevo Bing a Copilot en Bing.

En Microsoft, nos tomamos en serio nuestro compromiso con la IA responsable. La experiencia de Copilot en Bing se ha desarrollado de acuerdo con los Principios de IA de Microsoft, el Estándar de IA responsable de Microsoft y en asociación con expertos responsables de IA de toda la empresa, incluyendo la Oficina de IA responsable de Microsoft, nuestros equipos de ingeniería, Microsoft Research y Aether. Puedes obtener más información sobre la IA responsable en Microsoft aquí.  

En este documento, describimos nuestro enfoque hacia la IA responsable de Copilot en Bing. Antes del lanzamiento, adoptamos métodos avanzados para identificar, medir y mitigar los riesgos potenciales y el uso indebido del sistema, así como para proteger sus beneficios para los usuarios. A medida que continuamos evolucionando Copilot en Bing desde su lanzamiento por primera vez, también hemos seguido aprendiendo y mejorando nuestros esfuerzos de IA responsable. Este documento se actualizará periódicamente para comunicar nuestros procesos y métodos en evolución.   

Términos clave  

Copilot en Bing es una experiencia de búsqueda web mejorada por IA. A medida que se ejecuta en una tecnología nueva y potente, comenzamos definiendo algunos términos clave.  

Modelos de aprendizaje automático que ayudan a ordenar los datos en clases etiquetadas o categorías de información. En Copilot en Bing, una manera en la que usamos clasificadores es ayudar a detectar contenido potencialmente perjudicial enviado por los usuarios o generado por el sistema con el fin de mitigar la generación de ese contenido y el uso incorrecto o perjudicial del sistema. 

Copilot en Bing se basa en los resultados de búsqueda web cuando los usuarios buscan información. Esto significa que centramos la respuesta proporcionada a la consulta o petición de un usuario en contenidos de alto rango de la web, y proporcionamos enlaces a sitios web para que los usuarios puedan obtener más información. Bing clasifica el contenido de las búsquedas web ponderando en gran medida características como la relevancia, la calidad, la credibilidad, y la actualidad. Describimos estos conceptos con más detalle en Cómo Ofrece Bing resultados de Búsqueda (consulte "Calidad y credibilidad" en "Cómo clasifica Bing los resultados de Búsqueda").   

Consideramos que las respuestas fundamentadas son respuestas de Copilot en Bing en las que las declaraciones son compatibles con la información contenida en los orígenes de entrada, como los resultados de búsqueda web de la consulta o del mensaje, la knowledge base de información comprobada de Bing y, para la experiencia de chat, el historial de conversaciones reciente del chat. Las respuestas sin fondo son aquellas en las que una instrucción no está fundamentada en esos orígenes de entrada.  

Los modelos de lenguaje de gran tamaño (LLM) en este contexto son modelos de IA que están entrenados en grandes cantidades de datos de texto para predecir palabras en secuencias. Las LLM son capaces de realizar una variedad de tareas, como la generación de texto, el resumen, la traducción, la clasificación y mucho más.  

El metaprompt es un programa que sirve para guiar el comportamiento del sistema. Algunas partes del metaprompt ayudan a alinear el comportamiento del sistema con los Principios de IA de Microsoft y las expectativas del usuario. Por ejemplo, el metaprompt puede incluir una línea como "comunicarse en el idioma que elija el usuario".  

Un método o una combinación de métodos diseñados para reducir los riesgos potenciales que pueden surgir al usar características controladas por IA en Copilot en Bing.  

Texto, voz, imágenes y/u otras consultas habilitadas que un usuario envía a Bing como una entrada al modelo que potencia nuevas experiencias generativas controladas por la IA en Bing. Por ejemplo, un usuario podría escribir el siguiente mensaje:  

"Estoy planeando un viaje para nuestro aniversario en septiembre. ¿Cuáles son algunos de los lugares a los que podemos ir que se encuentran en un vuelo de 3 horas desde Londres- London London?”  

El texto que un usuario envía a Bing desde la barra de búsqueda para la búsqueda web. En este documento, distinguiremos una consulta (para la búsqueda web) de un aviso (para experiencias generadoras controladas por IA en Bing). Por ejemplo, un usuario podría escribir la siguiente consulta para buscar en la Web:  

"Destinos de viaje cerca del aeropuerto de Londres- London London"  

Técnicas usadas por expertos para evaluar las limitaciones y vulnerabilidades de un sistema y probar la eficacia de las mitigaciones planeadas. Las pruebas de equipo rojo y las pruebas de esfuerzo se usan para identificar riesgos potenciales y son distintos de la medición sistemática de los riesgos.   

El texto, la imagen, los gráficos, etc. que copiloto en Bing genera en respuesta a un mensaje. Los sinónimos de "respuesta" incluyen "finalización", "generación" y "respuesta". Por ejemplo, Bing puede proporcionar la siguiente respuesta al mensaje que usamos en la definición de "aviso" anterior:   

Enhorabuena por tu aniversario! Hay muchos lugares a los que puede ir que se encuentran en un vuelo de 3 horas desde Londres London. Según una fuente, algunas de las escapadas de fin de semana en un plazo de tres horas en avión desde Londres son Bilbao, Copenhague, Reikiavik y Estocolmo 1, 2. Otra fuente sugiere algunos de los mejores lugares para ir a Europa en septiembre son Cracovia, Florencia, y Lisboa 3, 4. También puedes comprobar los vuelos directos desde Londres London a varios destinos y ver qué atractivo para ti 5. ¡Espero que tengas un viaje maravilloso!”  

Usos previstos y nuevas experiencias de IA  

Copilot en los usos previstos de Bing es conectar a los usuarios con resultados de búsqueda relevantes, revisar los resultados de toda la web para encontrar y resumir las respuestas que buscan los usuarios, ayudar a los usuarios a refinar sus investigaciones para obtener respuestas con una experiencia de chat y generar creatividad al ayudar a los usuarios a crear contenido. Copiloto en las experiencias de IA generativas de Bing a continuación apoyan el objetivo de ser un copiloto con tecnología de IA para la Web.  

Resumen. Cuando los usuarios envían una consulta de búsqueda en Copilot en Bing, el sistema Bing procesa la consulta, realiza una o más búsquedas web y usa los mejores resultados de búsqueda web para generar un resumen de la información que se va a presentar a los usuarios. Estos resúmenes incluyen referencias para ayudar a los usuarios a ver y acceder fácilmente a los resultados de búsqueda que se usan para ayudar a fundamentar el resumen. Los resúmenes pueden aparecer en el lado derecho de la página de resultados de búsqueda y dentro de la experiencia de chat.  

Experiencia de chat. Además del resumen, los usuarios pueden chatear con Copilot en el sistema Bing a través de texto, imagen o entrada de voz, hacer preguntas de seguimiento para aclarar las búsquedas y encontrar información nueva, y enviar mensajes para generar contenido creativo. Las referencias también se incluyen en la experiencia de chat cuando Copilot en Bing resume los resultados de búsqueda en la respuesta.   

Generación de contenido creativo. Tanto en la experiencia de chat como en la página de búsqueda, los usuarios pueden crear poemas, chistes, historias, imágenes y otro contenido con la ayuda de Copilot en Bing.  Las imágenes se crean por Designer (la antigua Generador de imágenes de Bing) y los usuarios pueden acceder a la característica a través de Designer página principal, así como la página copiloto. 

¿Cómo funciona Copilot en Bing?  

Con Copilot en Bing, hemos desarrollado un enfoque innovador para llevar los LLMs de última generación a la búsqueda web. Cuando un usuario escribe un mensaje en Copilot en Bing, el aviso, el historial de conversaciones recientes, el metaprompt y los resultados de búsqueda principales se envían como entradas al LLM. El modelo genera una respuesta usando el aviso del usuario y el historial de conversaciones recientes para contextualizar la solicitud, el metaprompt para alinear las respuestas con los principios de la IA de Microsoft y las expectativas del usuario, y los resultados de búsqueda a las respuestas básicas en contenido existente de alto nivel de la web.   

Las respuestas se presentan a los usuarios en diferentes formatos, como vínculos tradicionales a contenido web, resúmenes generados por IA, imágenes y respuestas de chat. Los resúmenes y las respuestas de chat que dependen de los resultados de búsqueda web incluirán referencias y una sección "Más información" debajo de las respuestas, con vínculos a resultados de búsqueda que se usaron para fundamentar la respuesta. Los usuarios pueden hacer clic en estos vínculos para obtener más información sobre un tema y la información que se usa para fundamentar el resumen o la respuesta del chat.    

En la experiencia Copilot, los usuarios pueden realizar búsquedas web de forma conversacional agregando contexto a su mensaje e interactuando con las respuestas del sistema para especificar aún más sus intereses de búsqueda. Por ejemplo, un usuario podría hacer preguntas de seguimiento, solicitar información adicional aclaratoria o responder al sistema de forma conversacional. En la experiencia de chat, los usuarios también pueden seleccionar una respuesta de sugerencias preescritas, a las que llamamos sugerencias de chat. Estos botones aparecen después de cada respuesta de Copilot y proporcionan indicaciones sugeridas para continuar la conversación dentro de la experiencia de chat. Las sugerencias de chat también aparecen junto con el contenido resumido en la página de resultados de búsqueda como punto de entrada para la experiencia de chat.  

Copilot en Bing también permite a un usuario crear historias, poemas, letras de canciones e imágenes con la ayuda de Bing. Cuando Copilot en Bing detecta la intención del usuario de generar contenido creativo (por ejemplo, el mensaje comienza con "escribirme un ..."), el sistema, en la mayoría de los casos, generará contenido que responda a la petición del usuario. De forma similar, cuando Copilot en Bing detecta la intención del usuario de generar una imagen (por ejemplo, el mensaje comienza con "dibujarme un ..."), el sistema, en la mayoría de los casos, generará una imagen que responda a la petición del usuario. En Visual Búsqueda en Experiencia de chat, con una imagen tomada por la cámara del usuario, cargada desde el dispositivo del usuario o vinculada desde la web, los usuarios pueden pedir a Copilot en Bing que comprenda el contexto, interprete y responda a preguntas sobre la imagen.  Los usuarios también pueden cargar sus archivos en Copilot para interpretar, convertir, procesar o calcular información desde ellos. En la experiencia Microsoft Designer a la que los usuarios pueden obtener acceso a través de Copilot en Bing, los usuarios no solo pueden generar imágenes mediante mensajes, sino que también pueden cambiar su tamaño o modificar su estilo, o realizar modificaciones como el fondo borroso o hacer que los colores sean más nítidos. 

Los usuarios con cuentas de Microsoft (MSA) ahora también tienen la opción de suscribirse a Copilot Pro que ofrece una experiencia mejorada, como un rendimiento acelerado, una creación de imágenes de IA más rápida y la posibilidad de crear sus propios GPT de Copilot. Copilot Pro está disponible actualmente en países limitados y tenemos previsto que Copilot Pro estén disponibles en más mercados próximamente.

En la experiencia copiloto, los usuarios pueden obtener acceso a los GPT de Copilot. Un GPT de Copilot, como Designer GPT, es una versión personalizada de Microsoft Copilot sobre un tema que le interesa especialmente, como la forma física, los viajes y la cocina, que puede ayudar a convertir ideas imprecisas o generales en mensajes más específicos con resultados, incluidos textos e imágenes. En Copilot, los usuarios pueden ver los GPT de Copilot disponibles y los usuarios con cuentas de Copilot Pro pronto tendrán acceso a Copilot GPT Builder, una característica que permite a los usuarios crear y configurar una GPT de Copilot personalizada. Las mitigaciones de IA responsable mencionadas anteriormente para Copilot en Bing se aplican a los GPT de Copilot.

Para obtener más información sobre cómo funcionan Copilot Pro y los GPT de Copilot, visite esta página.

Copilot en Bing se esfuerza por proporcionar resultados de búsqueda amplios y diversos con su compromiso con el acceso gratuito y abierto a la información. Al mismo tiempo, nuestros esfuerzos de calidad incluyen trabajar para evitar la promoción inadvertida de contenido potencialmente perjudicial para los usuarios. Encontrará más información sobre la clasificación del contenido por parte de Bing, incluyendo cómo define la relevancia y la calidad y credibilidad de una página web, en las "Directrices para administradores web de Bing".   Encontrará más información sobre los principios de moderación del contenido de Bing en "Cómo Bing ofrece resultados de búsqueda".   

En la experiencia Copilot en Windows, Copilot en Bing puede trabajar con el sistema operativo Windows para proporcionar habilidades específicas de Windows, como cambiar el tema o el fondo del usuario y cambiar la configuración como audio, Bluetooth y redes. Estas experiencias permiten al usuario configurar sus opciones de configuración y mejorar su experiencia usando indicaciones en lenguaje natural al LLM. La funcionalidad específica de la aplicación también se puede proporcionar desde complementos de aplicaciones de terceros. Estas pueden automatizar tareas repetitivas y lograr una mayor eficiencia del usuario. Dado que las LLM ocasionalmente pueden cometer errores, se proporcionan indicaciones de confirmación de usuario apropiadas para que el usuario sea el árbitro final de los cambios que se pueden realizar. 

Identificar, medir y mitigar los riesgos  

Al igual que otras tecnologías transformacionales, aprovechar los beneficios de la IA no está libre de riesgos y una parte principal del programa de IA responsable de Microsoft está diseñado para identificar riesgos potenciales, medir su propensión a ocurrir y crear mitigaciones para abordarlos. Guiados por nuestros Principios de IA y nuestro Estándar de IA responsable, buscamos identificar, medir y mitigar los riesgos potenciales y el uso incorrecto de Copilot en Bing, a la vez que aseguramos los usos transformadores y beneficiosos que ofrece la nueva experiencia. En las secciones siguientes se describe nuestro enfoque iterativo para identificar, medir y mitigar los riesgos potenciales.   

A nivel modelo, nuestro trabajo comenzó con análisis exploratorios de GPT-4 a finales del verano de 2022. Esto incluyó realizar amplias pruebas en equipo rojo en colaboración con OpenAI. Esta prueba se diseñó para evaluar cómo funcionaría la tecnología más reciente sin que se le aplicaran medidas de seguridad adicionales. Nuestra intención específica en este momento era producir respuestas perjudiciales, exponer posibles vías de uso incorrecto e identificar capacidades y limitaciones. Nuestros aprendizajes combinados en OpenAI y Microsoft contribuyeron a avances en el desarrollo de modelos y, para nosotros, en Microsoft, informamos de nuestra comprensión de los riesgos y contribuyemos a las estrategias de mitigación temprana para Copilot en Bing.  

Además de las pruebas de equipo rojo a nivel de modelo, un equipo multidisciplinar de expertos realizó numerosas pruebas de equipo rojo a nivel de aplicación en Copilot en Bing AI experiencias antes de hacerlas disponibles públicamente en nuestra versión preliminar limitada. Este proceso nos ayudó a comprender mejor cómo los actores adversarios podrían aprovechar el sistema y mejorar nuestras mitigaciones. Los evaluadores de estrés no contradictorios también evaluaron ampliamente las nuevas características de Bing en busca de deficiencias y vulnerabilidades. Después del lanzamiento, las nuevas experiencias de IA de Bing se integran en la infraestructura de pruebas y medición de producción existente de la organización de ingeniería de Bing. Por ejemplo, los evaluadores de equipos rojos de diferentes regiones y fondos intentan constante y sistemáticamente poner en peligro el sistema, y sus conclusiones se usan para expandir los conjuntos de datos que Usa Bing para mejorar el sistema.  

Las pruebas de equipo rojo y las pruebas de esfuerzo pueden exponer instancias de riesgos específicos, pero los usuarios de producción tendrán millones de tipos diferentes de conversaciones con Copilot en Bing. Además, las conversaciones son de varios giros y contextuales, y la identificación del contenido perjudicial dentro de una conversación es una tarea compleja. Para comprender mejor y abordar el potencial de riesgos en Copilot en Bing AI experiencias, hemos desarrollado métricas de IA responsable adicionales específicas para esas nuevas experiencias de IA para medir riesgos potenciales, como jailbreaks, contenido perjudicial y contenido sin encallar. También habilitamos la medición a escala a través de canalizaciones de medición parcialmente automatizadas. Cada vez que los cambios del producto, las mitigaciones existentes se actualizan o se proponen nuevas mitigaciones, actualizamos nuestras canalizaciones de medida para evaluar tanto el rendimiento del producto como las métricas de IA responsables.  

Como ejemplo ilustrativo, la canalización de medición parcialmente automatizada actualizada para contenido perjudicial incluye dos innovaciones importantes: simulación de conversación y anotación de conversación automatizada y verificada por el usuario. En primer lugar, los expertos responsables de IA crearon plantillas para capturar la estructura y el contenido de las conversaciones que podrían dar lugar a diferentes tipos de contenido perjudicial. Estas plantillas se entregaron a un agente conversacional que interactuó como un usuario hipotético con Copilot en Bing, generando conversaciones simuladas. Para identificar si estas conversaciones simuladas contenían contenido perjudicial, tomamos directrices que suelen usar los lingüistas expertos para etiquetar datos y los modificamos para su uso por GPT-4 para etiquetar las conversaciones a escala, perfeccionando las directrices hasta que hubo un acuerdo significativo entre las conversaciones con etiqueta de modelo y las conversaciones con etiqueta humana. Por último, hemos usado las conversaciones etiquetadas con el modelo para calcular una métrica de IA responsable que captura la eficacia de Copilot en Bing para mitigar el contenido perjudicial.   

Nuestras canalizaciones de medición nos permiten realizar rápidamente mediciones de riesgos potenciales a escala. A medida que identificamos nuevos problemas durante el período de vista previa y las pruebas continuas de equipos rojos, continuamos ampliando los conjuntos de medidas para evaluar riesgos adicionales.  

A medida que identificamos riesgos potenciales y uso incorrecto a través de procesos como pruebas en equipo rojo y pruebas de esfuerzo y los medimos con los enfoques innovadores descritos anteriormente, desarrollamos mitigaciones adicionales a las que se usan para la búsqueda tradicional. A continuación, describimos algunas de esas mitigaciones. Seguiremos supervisando el Copilot en Bing AI experiencias para mejorar el rendimiento del producto y las mitigaciones.  

Versión por fases, evaluación continua. Nos comprometemos a aprender y mejorar nuestro enfoque responsable de IA continuamente a medida que evolucionan nuestras tecnologías y el comportamiento del usuario. Nuestra estrategia de lanzamiento incremental ha sido una parte esencial de cómo movemos nuestra tecnología de forma segura desde los laboratorios al mundo y nos comprometemos a un proceso deliberado y reflexivo para asegurar los beneficios de Copilot en Bing. Limitar el número de personas con acceso durante el período de vista previa nos ha permitido descubrir cómo los usuarios usan Copilot en Bing, incluido el uso incorrecto de los usuarios, por lo que podemos intentar mitigar los problemas emergentes antes de una versión más amplia. Por ejemplo, estamos exigiendo a los usuarios que se autentiquen con su cuenta de Microsoft antes de acceder a la nueva experiencia completa de Bing. Los usuarios no autenticados solo pueden acceder a una vista previa limitada de la experiencia. Estos pasos desalientan el abuso y nos ayudan a tomar (según sea necesario) acciones apropiadas en respuesta a las infracciones del Código de conducta.  Diariamente realizamos cambios en Copilot en Bing para mejorar el rendimiento del producto, mejorar las mitigaciones existentes e implementar nuevas mitigaciones en respuesta a nuestros aprendizajes durante el período de vista previa.  

Base en los resultados de búsqueda. Como se mencionó anteriormente, Copilot en Bing está diseñado para proporcionar respuestas compatibles con la información de los resultados de búsqueda web cuando los usuarios buscan información. Por ejemplo, el sistema se proporciona con texto de los principales resultados de búsqueda e instrucciones a través del metaprompt para fundamentar su respuesta. Sin embargo, al resumir contenido de la web, Copilot en Bing puede incluir información en su respuesta que no está presente en sus orígenes de entrada. En otras palabras, puede producir resultados no encallados. Nuestras primeras evaluaciones han indicado que los resultados no encallados en el chat pueden ser más frecuentes para ciertos tipos de mensajes o temas que otros, como pedir cálculos matemáticos, información financiera o de mercado (por ejemplo, ganancias de la empresa, datos de rendimiento de acciones) e información como fechas precisas de eventos o precios específicos de artículos. Los usuarios siempre deben tener cuidado y usar su mejor juicio al ver resultados de búsqueda resumidos, ya sea en la página de resultados de búsqueda o en la experiencia de chat. Hemos tomado varias medidas para mitigar el riesgo de que los usuarios puedan confiar excesivamente en contenido generado infundado en escenarios de resumen y experiencias de chat. Por ejemplo, las respuestas de Copilot en Bing que se basan en los resultados de búsqueda incluyen referencias a los sitios web de origen para que los usuarios comprueben la respuesta y obtengan más información. A los usuarios también se les proporciona un aviso explícito de que están interactuando con un sistema de IA y se les aconseja comprobar los materiales de origen de resultados web para ayudarles a utilizar su mejor juicio.  

Clasificadores basados en IA y metaprompting para mitigar posibles riesgos o uso incorrecto. El uso de llms puede producir contenido problemático que podría conducir a riesgos o uso incorrecto. Algunos ejemplos podrían ser los relacionados con autolesión, violencia, contenido gráfico, propiedad intelectual, información inexacta, lenguaje odioso o texto relacionado con actividades ilegales. Clasificadores y metaprompting son dos ejemplos de mitigaciones que se han implementado en Copilot en Bing para ayudar a reducir el riesgo de estos tipos de contenido. Los clasificadores clasifican el texto para marcar diferentes tipos de contenido potencialmente perjudicial en consultas de búsqueda, mensajes de chat o respuestas generadas. Bing usa clasificadores basados en IA y filtros de contenido, que se aplican a todos los resultados de búsqueda y funciones relevantes; diseñamos filtros de contenido y clasificadores de aviso adicionales específicamente para abordar los posibles riesgos que plantea copiloto en las características de Bing. Las marcas conducen a posibles mitigaciones, como no devolver contenido generado al usuario, desviar al usuario a otro tema o redirigirlo a la búsqueda tradicional. Metaprompting implica proporcionar instrucciones al modelo para guiar su comportamiento, incluyendo que el sistema se comporte de acuerdo con los Principios de IA de Microsoft y las expectativas del usuario. Por ejemplo, el metaprompt puede incluir una línea como "comunicarse en el idioma que elija el usuario".   

Protección de la privacidad en Visual Búsqueda en Copilot en Bing. Cuando los usuarios cargan una imagen como parte de su mensaje de chat, Copilot en Bing empleará tecnología de borrosos en la cara antes de enviar la imagen al modelo de IA. La imagen se usa para proteger la privacidad de los individuos en la imagen. La tecnología de desenfoque facial se basa en pistas contextuales para determinar dónde desenfocar e intentará desenfocar todas las caras. Con las caras borrosas, el modelo de IA puede comparar la imagen que se escribe con las imágenes disponibles públicamente en Internet. Como resultado, por ejemplo, Copilot en Bing podría identificar a un famoso jugador de baloncesto a partir de una foto de ese jugador en una cancha de baloncesto creando una representación numérica que refleje el número de la camiseta del jugador, el color de la camiseta, la presencia de un aro de baloncesto, etc. Copilot en Bing no almacena representaciones numéricas de personas de las imágenes cargadas y no las comparte con terceros. Copilot en Bing usa representaciones numéricas de las imágenes que los usuarios cargan solo con el fin de responder a las solicitudes de los usuarios y, a continuación, se eliminan en un plazo de 30 días después de que finalice el chat.    

Si el usuario le pide a Copilot en Bing información sobre una imagen cargada, las respuestas de chat pueden reflejar el impacto de la borrosación de la cara en la capacidad del modelo para proporcionar información sobre la imagen cargada. Por ejemplo, Copilot en Bing puede describir que alguien tiene una cara borrosa.    

Limitar la deriva conversacional. Durante el período de vista previa aprendimos que las sesiones de chat muy largas pueden dar como resultado respuestas repetitivas, inútiles o incoherentes con Copilot en el tono previsto de Bing. Para solucionar este problema de conversación, hemos limitado el número de turnos (intercambios que contienen una pregunta de usuario y una respuesta de Copilot en Bing) por sesión de chat. Seguimos evaluando enfoques adicionales para mitigar este problema.  

Símbolo del sistema de enriquecimiento. En algunos casos, el mensaje de un usuario puede ser ambiguo. Cuando esto ocurre, Copilot en Bing puede usar el LLM para ayudar a crear más detalles en el mensaje para ayudar a garantizar que los usuarios reciban la respuesta que buscan. Este enriquecimiento rápido no se basa en ningún conocimiento del usuario o sus búsquedas anteriores, sino en el modelo de IA. Estas consultas revisadas serán visibles en el historial de chat del usuario y, al igual que otras búsquedas, se pueden eliminar mediante controles del producto.  

El diseño centrado en el usuario y las intervenciones de la experiencia del usuario. El diseño centrado en el usuario y las experiencias de usuario son un aspecto esencial del enfoque de Microsoft con respecto a la IA responsable. El objetivo es el diseño del producto raíz en las necesidades y expectativas de los usuarios. A medida que los usuarios interactúan con Copilot en Bing por primera vez, ofrecemos varios puntos de toque diseñados para ayudarles a comprender las capacidades del sistema, informarles de que Copilot en Bing tiene tecnología de IA y comunicar limitaciones. La experiencia se ha diseñado de esta forma para ayudar a los usuarios a sacar el máximo partido de Copilot en Bing y minimizar el riesgo de dependencia excesiva. Los elementos de la experiencia también ayudan a los usuarios a comprender mejor Copilot en Bing y sus interacciones con ella. Entre ellas se incluyen sugerencias de chat específicas de IA responsable (por ejemplo, ¿cómo usa Bing la IA? ¿Por qué No responde Copilot en Bing en algunos temas?), explicaciones de limitaciones, formas en las que los usuarios pueden obtener más información sobre cómo funciona el sistema y notificar comentarios, y referencias fácilmente navegables que aparecen en las respuestas para mostrar a los usuarios los resultados y las páginas en las que las respuestas están fundamentadas.  

Divulgación de IA. Copilot en Bing proporciona varios puntos de contacto para la divulgación significativa de IA donde se notifica a los usuarios que interactúan con un sistema de IA, así como oportunidades para obtener más información sobre Copilot en Bing. Ofrecer este conocimiento a los usuarios puede ayudarles a evitar depender en exceso de IA y a obtener información sobre las ventajas y limitaciones del sistema.  

Provenencia de medios.Microsoft Designer ha habilitado la característica "Credenciales de contenido", que usa métodos criptográficos para marcar el origen, o "origen", de todas las imágenes generadas por IA creadas en Designer. La característica de marca de agua digital invisible muestra la fuente, la hora y la fecha de creación original, y esta información no se puede modificar. La tecnología emplea estándares establecidos por la Coalition for Content and Authenticity (C2PA) para añadir una capa adicional de confianza y transparencia para las imágenes generadas por IA. Microsoft es cofundador de C2PA y ha contribuido con la tecnología principal de provenancia de contenido digital. 

Términos de uso y código de conducta. Este recurso rige el uso de Copilot en Bing. Los Usuarios deben respetar los Términos de Uso y el Código de Conducta, que, entre otras cosas, les informa de usos permisibles e impermisibles y de las consecuencias de infringir los términos. Los Términos de uso también proporcionan divulgaciones adicionales para los usuarios y sirven de referencia útil para que los usuarios obtengan información sobre Copilot en Bing.   

Operaciones y respuesta rápida. También usamos Copilot en los procesos operativos y de supervisión continuos de Bing para abordar cuándo Copilot en Bing recibe señales o recibe un informe, indicando un posible uso incorrecto o infracciones de los Términos de uso o código de conducta.  

Comentarios, supervisión y supervisión. La experiencia copiloto en Bing se basa en herramientas existentes que permiten a los usuarios enviar comentarios e informar de problemas, que son revisados por los equipos de operaciones de Microsoft. Los procesos operativos de Bing también se han ampliado para dar cabida a las características de Copilot en la experiencia de Bing, por ejemplo, actualizando la página Informar de un problema para incluir los nuevos tipos de contenido que los usuarios generan con la ayuda del modelo.   

Nuestro enfoque para identificar, medir y mitigar los riesgos seguirá evolucionando a medida que aprendemos más, y ya estamos realizando mejoras basadas en los comentarios recopilados durante el período de vista previa.     

Detección de contenido automatizada. Cuando los usuarios cargan imágenes como parte de su mensaje de chat, Copilot en Bing implementa herramientas para detectar imágenes de explotación sexual infantil e imágenes de abuso (CSEAI), especialmente la tecnología de coincidencia de hash PhotoDNA. Microsoft desarrolló PhotoDNA para ayudar a encontrar duplicados de CSEAI conocidos. Microsoft informa de todos los aparentes CSEAI al Centro Nacional de Menores Desaparecidos y Explotados (NCMEC), según lo requerido por la ley estadounidense. Cuando los usuarios cargan archivos para analizarlos o procesarlos, Copilot implementa análisis automatizados para detectar contenido que podría provocar riesgos o uso incorrecto, como texto que podría estar relacionado con actividades ilegales o código malintencionado.

Protección de la privacidad  

La creencia de Microsoft de que la privacidad es un derecho humano fundamental ha informado en todas las fases del desarrollo y la implementación de Copilot de Microsoft en la experiencia de Bing. Nuestros compromisos para proteger la privacidad de todos los usuarios, incluyendo proporcionar a los usuarios transparencia y control sobre sus datos y la integración de la privacidad mediante el diseño a través de la minimización de datos y la limitación de finalidad, son fundamentales para Copilot en Bing. A medida que evolucionamos nuestro enfoque para proporcionar copiloto en las experiencias de IA generativas de Bing, exploraremos continuamente la mejor manera de proteger la privacidad. Este documento se actualizará a medida que lo hagamos. Encontrará más información sobre cómo Microsoft protege la privacidad de nuestros usuarios en la Declaración de privacidad de Microsoft.  

En la experiencia Copilot en Windows, las aptitudes de Windows pueden, como parte de su funcionalidad, compartir información de usuario con la conversación de chat. Esto está sujeto a la aprobación del usuario y se muestran indicaciones de la interfaz de usuario para confirmar la intención del usuario antes de compartir la información del usuario con la conversación de chat.

Microsoft sigue considerando las necesidades de niños y jóvenes como parte de las evaluaciones de riesgo de las nuevas características de IA generativa en Copilot en Bing. Todas las cuentas de menores de Microsoft que identifiquen al usuario como menor de 13 años o según lo especificado de alguna otra forma según la legislación local no pueden iniciar sesión para acceder a la nueva experiencia completa de Bing.   

Como se describió anteriormente, para todos los usuarios hemos implementado medidas de seguridad que mitigan contenido potencialmente dañino. En Copilot en Bing, los resultados se establecen como en el modo estricto de Búsqueda segura de Bing, que tiene el nivel más alto de protección de seguridad en la principal búsqueda de Bing, por lo que evita que los usuarios, incluidos los usuarios adolescentes, se expongan a contenido potencialmente dañino. Además de la información que hemos proporcionado en este documento y en nuestras preguntas más frecuentes sobre las características de chat, aquí encontrará más información sobre cómo copiloto en Bing trabaja para evitar responder con contenido ofensivo inesperado en los resultados de búsqueda.  

Microsoft se ha comprometido a no entregar publicidad personalizada en función del comportamiento en línea a los niños cuya fecha de nacimiento, en su cuenta de Microsoft, los identifique como menores de 18 años. Esta importante protección se extenderá a los anuncios de Copilot en las funciones de Bing. Los usuarios pueden ver anuncios contextuales en función de la consulta o mensaje que se usa para interactuar con Bing.  

Para desbloquear el potencial transformador de la IA generativa, debemos generar confianza en la tecnología, proporcionando a los individuos la capacidad de comprender cómo se usan sus datos y proporcionándoles opciones y controles significativos sobre sus datos. Copiloto en Bing está diseñado para dar prioridad a agencias humanas, proporcionando información sobre cómo funciona el producto, así como sus limitaciones, y ampliando nuestras sólidas opciones y controles de consumidores a Copiloto en las características de Bing.   

La Declaración de privacidad de Microsoft proporciona información sobre nuestras prácticas de privacidad transparentes para proteger a nuestros clientes y establece información sobre los controles que proporcionan a nuestros usuarios la capacidad de ver y administrar sus datos personales. Para ayudar a garantizar que los usuarios tengan la información que necesitan cuando interactúan con las nuevas funciones conversacionales de Bing, las revelaciones del producto informan a los usuarios de que están interactuando con un producto de IA y proporcionamos vínculos a más preguntas frecuentes y explicaciones sobre cómo funcionan estas características. Microsoft seguirá escuchando los comentarios de los usuarios y agregará más detalles sobre las funciones conversacionales de Bing según sea necesario para ayudar a comprender cómo funciona el producto.   

Microsoft también proporciona a sus usuarios herramientas sólidas para ejercer sus derechos sobre sus datos personales. Para los datos recopilados por Copilot en Bing, incluidos los mensajes y consultas de los usuarios, el Panel de privacidad de Microsoft proporciona a los usuarios autenticados (con sesión iniciada) herramientas para ejercer sus derechos sobre el interesado, incluso al proporcionar a los usuarios la capacidad de ver, exportar y eliminar el historial de conversaciones almacenado. Microsoft sigue enviando comentarios sobre cómo quieren administrar su nueva experiencia de Bing, incluido el uso de experiencias de administración de datos en contexto.   

Copilot en Bing también respeta las solicitudes bajo el derecho europeo a ser olvidado, siguiendo el proceso que Microsoft desarrolló y perfeccionó para la funcionalidad de búsqueda tradicional de Bing. Todos los usuarios pueden informar aquí sobre los contenidos generados y las respuestas, y nuestros usuarios europeos pueden utilizar este formulario para enviar solicitudes para bloquear los resultados de búsqueda en Europa bajo el derecho al olvido.   

Copilot en Bing respetará las opciones de privacidad de los usuarios, incluidas las que se hayan realizado anteriormente en Bing, como el consentimiento para la recopilación y el uso de datos que se solicita a través de los banners de cookies y los controles disponibles en el Panel de privacidad de Microsoft. Para ayudar a permitir la autonomía del usuario y la agencia en la toma de decisiones informadas, hemos usado nuestro proceso de revisión interna para examinar cuidadosamente cómo se presentan las opciones a los usuarios. 

Además de los controles disponibles a través del Panel de privacidad de Microsoft, que permiten a los usuarios ver, exportar y eliminar su historial de búsqueda, incluidos los componentes de su historial de chat, los usuarios autenticados que han habilitado la característica Historial de chat en el producto tienen la capacidad de ver, acceder y descargar el historial de chat a través de los controles del producto. Los usuarios pueden borrar chats específicos del historial de chats o desactivar completamente la funcionalidad del historial de chat en cualquier momento, visitando la página configuración de Bing. Los usuarios también pueden elegir si permitir la personalización para acceder a una experiencia más personalizada con respuestas personalizadas. Los usuarios pueden optar por no participar y no participar en la personalización en cualquier momento en Configuración de chat en la página Configuración de Bing.  Borrar chats específicos del historial de chats impide que se usen para la personalización.  
 
Se proporciona más información sobre el historial y la personalización del chat a los usuarios de Copiloto en Las preguntas más frecuentes de Bing. 

Copilot en Bing se creó teniendo en cuenta la privacidad, de modo que los datos personales se recopilan y usan solo según sea necesario y se conservan no más de lo necesario. Como se mencionó anteriormente, visual Búsqueda en Copilot en Bing característica implementa un mecanismo que desenfoca rostros en las imágenes en el momento de la carga por los usuarios, para que las imágenes faciales no se procesen ni almacenen más. Encontrará más información sobre los datos personales que recopila Bing, cómo se usan y cómo se almacenan y eliminan en la Declaración de privacidad de Microsoft, que también proporciona información sobre las nuevas funciones de chat de Bing.   

Copilot en Bing tiene directivas de retención y eliminación de datos para ayudar a garantizar que los datos personales recopilados a través de las funciones de chat de Bing solo se conservan el tiempo que sea necesario.   

Seguiremos aprendiendo y evolucionando nuestro enfoque para ofrecer Copiloto en Bing y, a medida que lo hagamos, seguiremos trabajando en distintas disciplinas para alinear nuestra innovación de IA con los valores humanos y los derechos fundamentales, incluida la protección de los usuarios jóvenes y la privacidad.   

Copiloto con protección de datos comerciales 

Copilot con protección de datos comerciales, anteriormente conocido como Bing Chat Enterprise ("BCE"), fue lanzado por Microsoft en versión preliminar pública gratuita en julio de 2023 como un complemento gratuito para determinados clientes de M365. Copilot con protección de datos comerciales es una experiencia de búsqueda web mejorada por IA para usuarios finales empresariales. 

Al igual que con Copilot en Bing, cuando un copiloto con protección de datos comercial, el usuario final escribe un mensaje en la interfaz, el aviso, la conversación inmediata, los principales resultados de búsqueda y el metaprompt se envían como entradas al LLM. El modelo genera una respuesta usando el historial de conversaciones inmediato y rápido para contextualizar la solicitud, el metaprompt para alinear las respuestas con los principios de la IA de Microsoft y las expectativas del usuario, y los resultados de búsqueda a respuestas básicas en contenido existente de alto nivel de la web. Esto funciona del mismo modo que Copilot en Bing, tal y como se describe anteriormente en este documento, con la excepción de que Copilot con protección de datos comerciales solo se basa en el historial de conversaciones inmediato (no en el historial de conversaciones reciente) debido a que el historial de chats almacenado no es una característica compatible actualmente. Designer y visual Búsqueda ya están disponibles en esta versión. 

Al igual que otras tecnologías transformacionales, aprovechar los beneficios de la IA no está libre de riesgos y una parte principal del programa de IA responsable de Microsoft está diseñado para identificar riesgos potenciales, medir su propensión a ocurrir y crear mitigaciones para abordarlos. De nuevo, la descripción anterior de los esfuerzos de Microsoft para identificar, medir y mitigar los riesgos potenciales para Copilot en Bing también se aplica a esta versión, con algunas aclaraciones sobre las mitigaciones que se describen a continuación: 

Versión por fases, evaluación continua. Al igual que con Copilot Bing, para Copilot con protección de datos comerciales también hemos adoptado un enfoque de publicación incremental. El 18 de julio de 2023, Copilot con protección de datos comerciales pasó a estar disponible como versión preliminar gratuita para los clientes empresariales aptos con cuentas M365 específicas para activarlas para sus usuarios finales empresariales. Treinta (30) días después de notificar a los clientes empresariales aptos, Copilot con protección de datos comerciales se convirtió en "predeterminado" para esos mismos clientes. Copilot con protección de datos comerciales también ha pasado a estar disponible para cuentas M365 para profesores específicos. Copilot con protección de datos comerciales pasó a estar disponible de forma general para determinados clientes empresariales el 1 de diciembre de 2023. En el futuro, tenemos previsto ampliar el acceso a Copilot con protección de datos comerciales a más Microsoft Entra ID usuarios.

Términos de uso y código de conducta. Los usuarios finales de Copilot con protección de datos comerciales deben cumplir los Términos de uso del usuario final. Estos Términos de uso informan a los usuarios finales de los usos permisibles e impermisibles, así como las consecuencias de la violación de los términos.  

Operaciones y respuesta rápida. También usamos Copilot en los procesos operativos y de supervisión continuos de Bing para abordar cuándo Copilot con protección de datos comerciales recibe señales o recibe un informe que indica el posible uso incorrecto o las infracciones de los Términos de uso del usuario final

Comentarios, supervisión y supervisión. Copilot con protección de datos comerciales usa las mismas herramientas que Copilot en Bing para que los usuarios envíen comentarios e informen de problemas, que son revisados por los equipos de operaciones de Microsoft. Copilot en los procesos operativos de Bing también se ha ampliado para dar cabida a las características de Copilot con experiencias de protección de datos comerciales, por ejemplo, actualizando la página Informar sobre un problema para incluir los nuevos tipos de contenido que los usuarios generan con la ayuda del modelo.  

Para garantizar que los usuarios finales tengan la información que necesitan cuando interactúan con Copilot con protección de datos comerciales, hay documentación del producto disponible en la parte inferior de este documento, incluidas las páginas Preguntas más frecuentes y Más información. 

Las solicitudes y respuestas generadas por los usuarios finales de Copilot con protección de datos comerciales se procesan y almacenan de acuerdo con los estándares de administración de datos empresariales. La oferta de Copilot con protección de datos comerciales solo está disponible actualmente para los clientes empresariales y sus usuarios finales adultos autenticados, por lo que no anticipamos que niños o jóvenes sean usuarios finales de Copilot con protección de datos comerciales en este momento. Además, Copilot con protección de datos comerciales no proporciona publicidad personalizada basada en el comportamiento a los usuarios finales. En su lugar, los anuncios que se muestran solo son anuncios relevantes para el contexto.  

Learn more

Este documento forma parte de un esfuerzo más amplio de Microsoft para poner en práctica nuestros principios de IA. Para obtener más información, consulta:

Enfoque de Microsoft sobre IA responsable

Estándar de IA responsable de Microsoft

Recursos de IA responsable de Microsoft  

Cursos de Microsoft Azure Learning sobre IA responsable  

Acerca de este documento  

© 2023 Microsoft. All rights reserved. Este documento se proporciona "tal cual" y solo con fines informativos. La información y las vistas expresadas en este documento, incluidas las direcciones URL y otras referencias a sitios web de Internet, pueden cambiar sin previo aviso. Usted asume el riesgo de usarlo. Algunos ejemplos son solo para ilustración y son ficticios. No se pretende ni se deduce ninguna asociación real.  

¿Necesita más ayuda?

¿Quiere más opciones?

Explore las ventajas de las suscripciones, examine los cursos de aprendizaje, aprenda a proteger su dispositivo y mucho más.

Las comunidades le ayudan a formular y responder preguntas, enviar comentarios y leer a expertos con conocimientos extensos.

¿Le ha sido útil esta información?

¿Cuál es tu grado de satisfacción con la calidad del lenguaje?
¿Qué ha afectado a su experiencia?
Si presiona Enviar, sus comentarios se usarán para mejorar los productos y servicios de Microsoft. El administrador de TI podrá recopilar estos datos. Declaración de privacidad.

¡Gracias por sus comentarios!

×