Última actualización: mayo de 2024

Conceptos básicos de Copilot en Bing  

Copilot en Bing está ahora Microsoft Copilot. Lea sobre nuestro enfoque de IA responsable en la documentación aquí: Nota de transparencia para Microsoft Copilot

Introducción  

En febrero de 2023, Microsoft lanzó la nueva Bing, una experiencia de búsqueda web mejorada con IA. Permite a los usuarios resumir los resultados de búsqueda web y proporcionar una experiencia de chat. Los usuarios también pueden generar contenido creativo, como poemas, chistes, historias y, con Generador de imágenes de Bing, imágenes. La nueva Bing mejorada con IA se ejecuta en una variedad de tecnologías avanzadas de Microsoft y OpenAI, incluyendo GPT, un modelo de lenguaje de gran tamaño de vanguardia (LLM), y DALL-E, un modelo de aprendizaje profundo para generar imágenes digitales a partir de descripciones de lenguaje natural, ambas de OpenAI. Trabajamos con ambos modelos durante meses antes del lanzamiento público para desarrollar un conjunto personalizado de funcionalidades y técnicas para unir esta tecnología de inteligencia artificial de vanguardia y la búsqueda web en el nuevo Bing.  En noviembre de 2023, Microsoft cambió el nombre del nuevo Bing a Copilot en Bing.

En Microsoft, nos tomamos muy en serio nuestro compromiso con la IA responsable. La experiencia Copilot en Bing se ha desarrollado de acuerdo con los Principios de IA de Microsoft, la IA responsable de Microsoft Standard y en asociación con expertos responsables de IA de toda la empresa, incluyendo la Oficina de IA responsable de Microsoft, nuestros equipos de ingeniería, Microsoft Research y Aether. Puedes obtener más información sobre la IA responsable en Microsoft aquí.  

En este documento, describimos nuestro enfoque hacia la IA responsable de Copilot en Bing. Antes del lanzamiento, adoptamos métodos avanzados para identificar, medir y mitigar los riesgos potenciales y el uso indebido del sistema, así como para proteger sus beneficios para los usuarios. A medida que continuamos evolucionando Copilot en Bing desde su lanzamiento, también hemos seguido aprendiendo y mejorando nuestros esfuerzos de IA responsable. Este documento se actualizará periódicamente para comunicar nuestros procesos y métodos en evolución.   

Términos clave  

Copilot en Bing es una experiencia de búsqueda web mejorada por IA. A medida que se ejecuta en una tecnología nueva y potente, comenzamos definiendo algunos términos clave.  

Modelos de aprendizaje automático que ayudan a ordenar los datos en clases etiquetadas o categorías de información. En Copilot en Bing, una forma en la que usamos clasificadores es ayudar a detectar contenido potencialmente perjudicial enviado por los usuarios o generado por el sistema con el fin de mitigar la generación de ese contenido y el uso incorrecto o perjudicial del sistema. 

Copilot en Bing se basa en los resultados de búsqueda web cuando los usuarios buscan información. Esto significa que centramos la respuesta proporcionada a la consulta o petición de un usuario en contenidos de alto rango de la web, y proporcionamos enlaces a sitios web para que los usuarios puedan obtener más información. Bing clasifica el contenido de las búsquedas web ponderando en gran medida características como la relevancia, la calidad, la credibilidad, y la actualidad. Describimos estos conceptos con más detalle en Cómo Ofrece Bing resultados de búsqueda (consulte "Calidad y credibilidad" en "Cómo clasifica Bing los resultados de búsqueda").   

Consideramos que las respuestas fundamentadas son respuestas de Copilot en Bing en las que las declaraciones son compatibles con la información contenida en los orígenes de entrada, como los resultados de búsqueda web de la consulta o del mensaje, la knowledge base de información comprobada de Bing y, para la experiencia de chat, el historial de conversaciones reciente del chat. Las respuestas sin fondo son aquellas en las que una instrucción no está fundamentada en esos orígenes de entrada.  

Los modelos de lenguaje de gran tamaño (LLM) en este contexto son modelos de IA que están entrenados en grandes cantidades de datos de texto para predecir palabras en secuencias. Las LLM son capaces de realizar una variedad de tareas, como la generación de texto, el resumen, la traducción, la clasificación y mucho más.  

El metaprompt es un programa que sirve para guiar el comportamiento del sistema. Algunas partes del metaprompt ayudan a alinear el comportamiento del sistema con los Principios de IA de Microsoft y las expectativas del usuario. Por ejemplo, el metaprompt puede incluir una línea como "comunicarse en el idioma que elija el usuario".  

Un método o una combinación de métodos diseñados para reducir los riesgos potenciales que pueden surgir por el uso de características controladas por IA en Copilot en Bing.  

Texto, voz, imágenes y/u otras consultas habilitadas que un usuario envía a Bing como una entrada al modelo que potencia nuevas experiencias generativas controladas por la IA en Bing. Por ejemplo, un usuario podría escribir el siguiente mensaje:  

"Estoy planeando un viaje para nuestro aniversario en septiembre. ¿Cuáles son algunos de los lugares a los que podemos ir que se encuentran en un vuelo de 3 horas desde Londres- London London?”  

El texto que un usuario envía a Bing desde la barra de búsqueda para la búsqueda web. En este documento, distinguiremos una consulta (para la búsqueda web) de un aviso (para experiencias generadoras controladas por IA en Bing). Por ejemplo, un usuario podría escribir la siguiente consulta para buscar en la Web:  

"Destinos de viaje cerca del aeropuerto de Londres- London London"  

Técnicas usadas por expertos para evaluar las limitaciones y vulnerabilidades de un sistema y probar la eficacia de las mitigaciones planeadas. Las pruebas de equipo rojo y las pruebas de esfuerzo se usan para identificar riesgos potenciales y son distintos de la medición sistemática de los riesgos.   

El texto, la imagen, los gráficos, etc. que Copilot en Bing genera como respuesta a un mensaje. Los sinónimos de "respuesta" incluyen "finalización", "generación" y "respuesta". Por ejemplo, Bing puede proporcionar la siguiente respuesta al mensaje que usamos en la definición de "aviso" anterior:   

Enhorabuena por tu aniversario! Hay muchos lugares a los que puede ir que se encuentran en un vuelo de 3 horas desde Londres London. Según una fuente, algunas de las escapadas de fin de semana en un plazo de tres horas en avión desde Londres son Bilbao, Copenhague, Reikiavik y Estocolmo 1, 2. Otra fuente sugiere algunos de los mejores lugares para ir a Europa en septiembre son Cracovia, Florencia, y Lisboa 3, 4. También puedes comprobar los vuelos directos desde Londres London a varios destinos y ver qué atractivo para ti 5. ¡Espero que tengas un viaje maravilloso!”  

Usos previstos y nuevas experiencias de IA  

los usos previstos de Copilot en Bing son conectar a los usuarios con resultados de búsqueda relevantes, revisar los resultados de toda la web para encontrar y resumir las respuestas que buscan los usuarios, ayudar a los usuarios a refinar sus investigaciones para obtener respuestas con una experiencia de chat y generar creatividad al ayudar a los usuarios a crear contenido. a continuación, las experiencias de IA generativas de Copilot en Bing apoyan el objetivo de ser un copiloto con tecnología de IA para la Web.  

Resumen. Cuando los usuarios envían una consulta de búsqueda en Copilot en Bing, el sistema Bing procesa la consulta, realiza una o más búsquedas web y usa los mejores resultados de búsqueda web para generar un resumen de la información que se va a presentar a los usuarios. Estos resúmenes incluyen referencias para ayudar a los usuarios a ver y acceder fácilmente a los resultados de búsqueda que se usan para ayudar a fundamentar el resumen. Los resúmenes pueden aparecer en el lado derecho de la página de resultados de búsqueda y dentro de la experiencia de chat.  

Experiencia de chat. Además del resumen, los usuarios pueden chatear con Copilot en Bing sistema mediante texto, imagen o entrada de voz, hacer preguntas de seguimiento para aclarar las búsquedas y encontrar información nueva, y enviar mensajes para generar contenido creativo. Las referencias también se incluyen en la experiencia de chat cuando Copilot en Bing resume los resultados de búsqueda en la respuesta.   

Generación de contenido creativo. Tanto en la experiencia de chat como en la página de búsqueda, los usuarios pueden crear poemas, chistes, historias, imágenes y otro contenido con la ayuda de Copilot en Bing.  Las imágenes se crean por Designer (la antigua Generador de imágenes de Bing) y los usuarios pueden acceder a la característica a través de Designer página principal, así como la página copiloto. 

¿Cómo funciona Copilot en Bing?  

Con Copilot en Bing, hemos desarrollado un enfoque innovador para llevar los LLM más avanzados a la búsqueda web. Cuando un usuario escribe un mensaje en Copilot en Bing, el mensaje, el historial de conversaciones recientes, el metaprompt y los resultados de búsqueda principales se envían como entradas al LLM. El modelo genera una respuesta usando el aviso del usuario y el historial de conversaciones recientes para contextualizar la solicitud, el metaprompt para alinear las respuestas con los principios de la IA de Microsoft y las expectativas del usuario, y los resultados de búsqueda a las respuestas básicas en contenido existente de alto nivel de la web.   

Las respuestas se presentan a los usuarios en diferentes formatos, como vínculos tradicionales a contenido web, resúmenes generados por IA, imágenes y respuestas de chat. Los resúmenes y las respuestas de chat que dependen de los resultados de búsqueda web incluirán referencias y una sección "Más información" debajo de las respuestas, con vínculos a resultados de búsqueda que se usaron para fundamentar la respuesta. Los usuarios pueden hacer clic en estos vínculos para obtener más información sobre un tema y la información que se usa para fundamentar el resumen o la respuesta del chat.    

En la experiencia Copilot, los usuarios pueden realizar búsquedas web de forma conversacional agregando contexto a su mensaje e interactuando con las respuestas del sistema para especificar aún más sus intereses de búsqueda. Por ejemplo, un usuario podría hacer preguntas de seguimiento, solicitar información adicional aclaratoria o responder al sistema de forma conversacional. En la experiencia de chat, los usuarios también pueden seleccionar una respuesta de sugerencias preescritas, a las que llamamos sugerencias de chat. Estos botones aparecen después de cada respuesta de Copilot y proporcionan indicaciones sugeridas para continuar la conversación dentro de la experiencia de chat. Las sugerencias de chat también aparecen junto con el contenido resumido en la página de resultados de búsqueda como punto de entrada para la experiencia de chat.  

Copilot en Bing también permite a un usuario crear historias, poemas, letras de canciones e imágenes con la ayuda de Bing. Cuando Copilot en Bing detecta la intención del usuario de generar contenido creativo (por ejemplo, el mensaje comienza con "escribirme un ..."), el sistema, en la mayoría de los casos, generará contenido que responda a la petición del usuario. De forma similar, cuando Copilot en Bing detecta la intención del usuario de generar una imagen (por ejemplo, el mensaje comienza con "dibujarme un..."), el sistema, en la mayoría de los casos, generará una imagen que responda a la petición del usuario. En la experiencia de búsqueda visual en chat, con una imagen tomada por la cámara del usuario, cargada desde el dispositivo del usuario o vinculada desde la web, los usuarios pueden pedir a Copilot en Bing que comprendan el contexto, interpreten y respondan preguntas sobre la imagen.  Los usuarios también pueden cargar sus archivos en Copilot para interpretar, convertir, procesar o calcular información desde ellos. En la experiencia Microsoft Designer a la que los usuarios pueden acceder a través de Copilot en Bing, los usuarios no solo pueden generar imágenes mediante mensajes, sino que también pueden cambiar su tamaño o volver a cambiar su estilo, o realizar modificaciones como el fondo borroso o hacer que los colores sean más nítidos. 

Los usuarios con cuentas de Microsoft (MSA) ahora también tienen la opción de suscribirse a Copilot Pro que ofrece una experiencia mejorada, incluido el rendimiento acelerado y la creación de imágenes de IA más rápida. Copilot Pro está disponible actualmente en países limitados y tenemos previsto que Copilot Pro estén disponibles en más mercados próximamente.

Para obtener más información sobre Copilot Pro, visita esta página.

Copilot en Bing se esfuerza por proporcionar resultados de búsqueda amplios y diversos con su compromiso de acceso libre y abierto a la información. Al mismo tiempo, nuestros esfuerzos de calidad incluyen trabajar para evitar la promoción inadvertida de contenido potencialmente perjudicial para los usuarios. Encontrará más información sobre la clasificación del contenido por parte de Bing, incluyendo cómo define la relevancia y la calidad y credibilidad de una página web, en las "Directrices para administradores web de Bing".   Encontrará más información sobre los principios de moderación del contenido de Bing en "Cómo Bing ofrece resultados de búsqueda".   

En la experiencia de Copilot en Windows, Copilot en Bing pueden trabajar con el sistema operativo Windows para proporcionar habilidades específicas de Windows, como cambiar el tema o el fondo del usuario y cambiar la configuración como audio, Bluetooth y redes. Estas experiencias permiten al usuario configurar sus opciones de configuración y mejorar su experiencia usando indicaciones en lenguaje natural al LLM. La funcionalidad específica de la aplicación también se puede proporcionar desde complementos de aplicaciones de terceros. Estas pueden automatizar tareas repetitivas y lograr una mayor eficiencia del usuario. Dado que las LLM ocasionalmente pueden cometer errores, se proporcionan indicaciones de confirmación de usuario apropiadas para que el usuario sea el árbitro final de los cambios que se pueden realizar. 

Identificación, medición y mitigación de riesgos  

Al igual que otras tecnologías transformacionales, aprovechar los beneficios de la IA no está libre de riesgos y una parte principal del programa de IA responsable de Microsoft está diseñado para identificar riesgos potenciales, medir su propensión a ocurrir y crear mitigaciones para abordarlos. Guiados por nuestros Principios de IA y nuestro Standard de IA responsable, buscamos identificar, medir y mitigar los riesgos potenciales y el uso incorrecto de Copilot en Bing mientras aseguramos los usos transformadores y beneficiosos que ofrece la nueva experiencia. En las secciones siguientes se describe nuestro enfoque iterativo para identificar, medir y mitigar posibles riesgos.   

En el nivel de modelo, nuestro trabajo comenzó con análisis exploratorios de GPT-4 a finales del verano de 2022. Esto incluía la realización de extensas pruebas en equipo rojo en colaboración con OpenAI. Esta prueba se diseñó para evaluar cómo funcionaría la tecnología más reciente sin que se le aplicaran medidas de seguridad adicionales. Nuestra intención específica en este momento era producir respuestas dañinas, exponer posibles vías de uso incorrecto e identificar funcionalidades y limitaciones. Nuestros aprendizajes combinados en OpenAI y Microsoft contribuyeron a avances en el desarrollo de modelos y, para nosotros, en Microsoft, informamos de nuestra comprensión de los riesgos y contribuyemos a las estrategias de mitigación temprana para Copilot en Bing.  

Además de las pruebas de equipo rojo a nivel de modelo, un equipo multidisciplinar de expertos realizó numerosas pruebas de equipo rojo a nivel de aplicación en Copilot en Bing experiencias de IA antes de hacerlas disponibles públicamente en nuestra versión preliminar limitada. Este proceso nos ayudó a comprender mejor cómo los actores adversarios podrían aprovechar el sistema y mejorar nuestras mitigaciones. Los evaluadores de esfuerzo no adversarios también evaluaron ampliamente las nuevas características de Bing para detectar deficiencias y vulnerabilidades. Después del lanzamiento, las nuevas experiencias de inteligencia artificial en Bing se integraron en la infraestructura de medición y pruebas de producción existente de la organización de ingeniería de Bing. Por ejemplo, los evaluadores de equipos rojos de diferentes regiones y fondos intentan poner en peligro el sistema de forma continua y sistemática, y sus conclusiones se usan para expandir los conjuntos de datos que Bing usa para mejorar el sistema.  

Las pruebas de equipo rojo y las pruebas de esfuerzo pueden exponer instancias de riesgos específicos, pero los usuarios de producción tendrán millones de tipos diferentes de conversaciones con Copilot en Bing. Además, las conversaciones son de varios giros y contextuales, y la identificación del contenido perjudicial dentro de una conversación es una tarea compleja. Para comprender y abordar mejor el potencial de riesgos en Copilot en Bing experiencias de IA, hemos desarrollado métricas de IA responsable adicionales específicas para esas nuevas experiencias de IA para medir riesgos potenciales, como jailbreaks, contenido perjudicial y contenido sin encallar. También hemos habilitado la medición a escala a través de canalizaciones de medición parcialmente automatizadas. Cada vez que cambia el producto, se actualizan las mitigaciones existentes o se proponen nuevas mitigaciones, actualizamos nuestras canalizaciones de medición para evaluar el rendimiento del producto y las métricas de IA responsable.  

Como ejemplo ilustrativo, la canalización de medición parcialmente automatizada actualizada para contenido perjudicial incluye dos innovaciones importantes: simulación de conversación y anotación de conversación automatizada y verificada por el usuario. En primer lugar, los expertos responsables de IA crearon plantillas para capturar la estructura y el contenido de las conversaciones que podrían dar lugar a diferentes tipos de contenido perjudicial. Estas plantillas se entregaron a un agente conversacional que interactuó como un usuario hipotético con Copilot en Bing, generando conversaciones simuladas. Para identificar si estas conversaciones simuladas contenían contenido perjudicial, tomamos directrices que suelen usar los lingüistas expertos para etiquetar datos y los modificamos para su uso por GPT-4 para etiquetar las conversaciones a escala, perfeccionando las directrices hasta que hubo un acuerdo significativo entre las conversaciones con etiqueta de modelo y las conversaciones con etiqueta humana. Por último, hemos usado las conversaciones etiquetadas con el modelo para calcular una métrica de IA responsable que captura la eficacia de Copilot en Bing para mitigar el contenido perjudicial.   

Nuestras canalizaciones de medición nos permiten realizar rápidamente mediciones de posibles riesgos a escala. A medida que identificamos nuevos problemas durante el período de versión preliminar y las pruebas continuas del equipo rojo, seguimos ampliando los conjuntos de medidas para evaluar riesgos adicionales.  

A medida que identificábamos posibles riesgos y usos incorrectos a través de procesos como pruebas de equipos rojos y pruebas de esfuerzo, y los medíamos con los enfoques innovadores descritos anteriormente, desarrollábamos mitigaciones adicionales a las utilizadas para la búsqueda tradicional. A continuación, se describen algunas de esas mitigaciones. Seguiremos supervisando las experiencias de IA Copilot en Bing para mejorar el rendimiento del producto y las mitigaciones.  

Versión por fases, evaluación continua. Nos comprometemos a aprender y mejorar nuestro enfoque de IA responsable continuamente a medida que evolucionan nuestras tecnologías y el comportamiento de los usuarios. Nuestra estrategia de lanzamiento incremental ha sido una parte esencial de cómo movemos nuestra tecnología de forma segura desde los laboratorios al mundo, y estamos comprometidos a un proceso deliberado y reflexivo para asegurar los beneficios de Copilot en Bing. Limitar el número de personas con acceso durante el período de vista previa nos ha permitido descubrir cómo las personas usan Copilot en Bing, incluido cómo las personas pueden usarla de forma incorrecta, por lo que podemos intentar mitigar los problemas emergentes antes de una versión más amplia. Por ejemplo, estamos exigiendo a los usuarios que se autentiquen con su cuenta de Microsoft antes de acceder a la nueva experiencia completa de Bing. Los usuarios no autenticados solo pueden acceder a una vista previa limitada de la experiencia. Estos pasos desalientan el abuso y nos ayudan a tomar (según sea necesario) acciones apropiadas en respuesta a las infracciones del Código de conducta.  Estamos realizando cambios en Copilot en Bing a diario para mejorar el rendimiento del producto, mejorar las mitigaciones existentes e implementar nuevas mitigaciones en respuesta a nuestros aprendizajes durante el período de vista previa.  

Base en los resultados de búsqueda. Como se indicó anteriormente, Copilot en Bing está diseñado para proporcionar respuestas compatibles con la información de los resultados de búsqueda web cuando los usuarios buscan información. Por ejemplo, el sistema se proporciona con texto de los principales resultados de búsqueda e instrucciones a través del metaprompt para fundamentar su respuesta. Sin embargo, en el resumen de contenido de la web, Copilot en Bing puede incluir información en su respuesta que no esté presente en sus fuentes de entrada. En otras palabras, puede producir resultados no encallados. Nuestras primeras evaluaciones han indicado que los resultados no encallados en el chat pueden ser más frecuentes para ciertos tipos de mensajes o temas que otros, como pedir cálculos matemáticos, información financiera o de mercado (por ejemplo, ganancias de la empresa, datos de rendimiento de acciones) e información como fechas precisas de eventos o precios específicos de artículos. Los usuarios siempre deben tener cuidado y usar su mejor juicio al ver resultados de búsqueda resumidos, ya sea en la página de resultados de búsqueda o en la experiencia de chat. Hemos tomado varias medidas para mitigar el riesgo de que los usuarios puedan confiar excesivamente en contenido generado infundado en escenarios de resumen y experiencias de chat. Por ejemplo, las respuestas de Copilot en Bing que se basan en los resultados de búsqueda incluyen referencias a los sitios web de origen para que los usuarios comprueben la respuesta y obtengan más información. A los usuarios también se les proporciona un aviso explícito de que interactúan con un sistema de inteligencia artificial y se les recomienda que comprueben los materiales de origen de resultados web para ayudarles a usar su mejor criterio.  

Clasificadores basados en inteligencia artificial y metaindicación para mitigar posibles riesgos o uso incorrecto. El uso de LLM puede producir contenido problemático que podría provocar riesgos o un uso incorrecto. Algunos ejemplos podrían ser mensajes relacionados con autolesiones, violencia, contenido gráfico, propiedad intelectual, información inexacta, discursos que inciten al odio o textos que puedan estar relacionados con actividades ilegales. Los clasificadores y metaindicadores son dos ejemplos de mitigaciones que se han implementado en Copilot en Bing para ayudar a reducir el riesgo de estos tipos de contenido. Los clasificadores clasifican el texto para marcar diferentes tipos de contenido potencialmente dañino en consultas de búsqueda, mensajes de chat o respuestas generadas. Bing usa clasificadores basados en IA y filtros de contenido, que se aplican a todos los resultados de búsqueda y funciones relevantes; hemos diseñado clasificadores rápido adicionales y filtros de contenido específicamente para abordar los posibles riesgos que plantean las características de Copilot en Bing. Las marcas conducen a posibles mitigaciones, como no devolver contenido generado al usuario, desviar al usuario a otro tema o redirigirlo a la búsqueda tradicional. La metaindicación implica proporcionar instrucciones al modelo para guiar su comportamiento, incluidas para que el sistema se comporte de acuerdo con los principios de inteligencia artificial y las expectativas del usuario de Microsoft. Por ejemplo, el metaprompt puede incluir una línea como "comunicarse en el idioma que elija el usuario".   

Protección de la privacidad en Búsqueda visual en Copilot en Bing. Cuando los usuarios cargan una imagen como parte de su mensaje de chat, Copilot en Bing empleará tecnología de borrosos en la cara antes de enviar la imagen al modelo de IA. La imagen se usa para proteger la privacidad de los individuos en la imagen. La tecnología de desenfoque facial se basa en pistas contextuales para determinar dónde desenfocar e intentará desenfocar todas las caras. Con las caras borrosas, el modelo de IA puede comparar la imagen que se escribe con las imágenes disponibles públicamente en Internet. Como resultado, por ejemplo, Copilot en Bing podrá identificar a un famoso jugador de baloncesto a partir de una foto de ese jugador en una cancha de baloncesto creando una representación numérica que refleje el número de la camiseta del jugador, el color de la camiseta, la presencia de un aro de baloncesto, etc. Copilot en Bing no almacena representaciones numéricas de personas de las imágenes cargadas y no las comparte con terceros. Copilot en Bing usa representaciones numéricas de las imágenes que los usuarios cargan solo con el fin de responder a las solicitudes de los usuarios y, a continuación, se eliminan en un plazo de 30 días después de que finalice el chat.    

Si el usuario le pide a Copilot en Bing información sobre una imagen cargada, las respuestas de chat pueden reflejar el impacto de la borrosación de la cara en la capacidad del modelo de proporcionar información sobre la imagen cargada. Por ejemplo, Copilot en Bing puede describir que alguien tiene una cara borrosa.    

Limitar la deriva conversacional. Durante el período de vista previa aprendimos que las sesiones de chat muy largas pueden dar como resultado respuestas repetitivas, inútiles o incoherentes con el tono previsto de Copilot en Bing. Para abordar esta deriva conversacional, hemos limitado el número de turnos (intercambios que contienen una pregunta de usuario y una respuesta de Copilot en Bing) por sesión de chat. Seguimos evaluando enfoques adicionales para mitigar este problema.  

Símbolo del sistema de enriquecimiento. En algunos casos, el mensaje de un usuario puede ser ambiguo. Cuando esto ocurre, Copilot en Bing puede usar el LLM para ayudar a crear más detalles en el mensaje para ayudar a garantizar que los usuarios reciban la respuesta que buscan. Este enriquecimiento rápido no se basa en ningún conocimiento del usuario o sus búsquedas anteriores, sino en el modelo de IA. Estas consultas revisadas serán visibles en el historial de chat del usuario y, al igual que otras búsquedas, se pueden eliminar mediante controles del producto.  

El diseño centrado en el usuario y las intervenciones de la experiencia del usuario. El diseño centrado en el usuario y las experiencias de usuario son un aspecto esencial del enfoque de Microsoft con respecto a la IA responsable. El objetivo es el diseño del producto raíz en las necesidades y expectativas de los usuarios. A medida que los usuarios interactúan con Copilot en Bing por primera vez, ofrecemos varios puntos de toque diseñados para ayudarles a comprender las capacidades del sistema, hacerles saber que Copilot en Bing funciona con tecnología de IA y comunicar limitaciones. La experiencia se ha diseñado de esta forma para ayudar a los usuarios a sacar el máximo partido de Copilot en Bing y minimizar el riesgo de dependencia excesiva. Los elementos de la experiencia también ayudan a los usuarios a comprender mejor Copilot en Bing y sus interacciones con ella. Entre ellas se incluyen sugerencias de chat específicas de IA responsable (por ejemplo, ¿cómo usa Bing la IA? ¿Por qué no Copilot en Bing responder en algunos temas?), explicaciones de limitaciones, formas en las que los usuarios pueden obtener más información sobre cómo funciona el sistema y enviar comentarios, y referencias fácilmente navegables que aparecen en las respuestas para mostrar a los usuarios los resultados y las páginas en las que las respuestas están fundamentadas.  

Divulgación de IA. Copilot en Bing proporciona varios puntos de contacto para la divulgación significativa de IA, donde se notifica a los usuarios que interactúan con un sistema de IA, así como oportunidades para obtener más información sobre Copilot en Bing. Capacitar a los usuarios con este conocimiento puede ayudarles a evitar confiar en exceso en la inteligencia artificial y obtener información sobre las ventajas y limitaciones del sistema.  

Provenencia de medios.Microsoft Designer ha habilitado la característica "Credenciales de contenido", que usa métodos criptográficos para marcar el origen, o "origen", de todas las imágenes generadas por IA creadas en Designer. La característica de marca de agua digital invisible muestra la fuente, la hora y la fecha de creación original, y esta información no se puede modificar. La tecnología emplea estándares establecidos por la Coalition for Content and Authenticity (C2PA) para añadir una capa adicional de confianza y transparencia para las imágenes generadas por IA. Microsoft es cofundador de C2PA y ha contribuido con la tecnología principal de provenancia de contenido digital. 

Términos de uso y código de conducta. Este recurso rige el uso de Copilot en Bing. Los Usuarios deben respetar los Términos de Uso y el Código de Conducta, que, entre otras cosas, les informa de usos permisibles e impermisibles y de las consecuencias de infringir los términos. Los Términos de uso también proporcionan divulgaciones adicionales para los usuarios y sirven de referencia útil para que los usuarios obtengan información sobre Copilot en Bing.   

Operaciones y respuesta rápida. También usamos los procesos operativos y de supervisión en curso de Copilot en Bing para abordar cuándo Copilot en Bing recibe señales o recibe un informe, indicando un posible uso incorrecto o violaciones de los Términos de uso o código de conducta.  

Comentarios, supervisión y supervisión. La experiencia de Copilot en Bing se basa en herramientas existentes que permiten a los usuarios enviar comentarios e informar de problemas, que son revisados por los equipos de operaciones de Microsoft. Los procesos operativos de Bing también se han ampliado para dar cabida a las características dentro de Copilot en Bing experiencia, por ejemplo, actualizando la página Informar de un problema para incluir los nuevos tipos de contenido que los usuarios generan con la ayuda del modelo.   

Nuestro enfoque para identificar, medir y mitigar los riesgos seguirá evolucionando a medida que aprendemos más, y ya estamos realizando mejoras basadas en los comentarios recopilados durante el período de vista previa.     

Detección de contenido automatizada. Cuando los usuarios cargan imágenes como parte de su mensaje de chat, Copilot en Bing implementa herramientas para detectar imágenes de explotación sexual infantil y abuso (CSEAI), especialmente la tecnología de coincidencia de hash PhotoDNA. Microsoft desarrolló PhotoDNA para ayudar a encontrar duplicados de CSEAI conocidos. Microsoft informa de todos los aparentes CSEAI al Centro Nacional de Menores Desaparecidos y Explotados (NCMEC), según lo requerido por la ley estadounidense. Cuando los usuarios cargan archivos para analizarlos o procesarlos, Copilot implementa análisis automatizados para detectar contenido que podría provocar riesgos o uso incorrecto, como texto que podría estar relacionado con actividades ilegales o código malintencionado.

Protección de la privacidad  

La creencia de Microsoft de que la privacidad es un derecho humano fundamental ha informado en todas las fases del desarrollo e implementación de la experiencia de Copilot en Bing de Microsoft. Nuestros compromisos con la protección de la privacidad de todos los usuarios, incluyendo el proporcionar a las personas la transparencia y el control sobre sus datos y la integración de la privacidad mediante el diseño a través de la minimización de datos y la limitación de finalidad, son fundamentales para Copilot en Bing. A medida que evolucionamos nuestro enfoque para proporcionar las experiencias de IA generativas de la Copilot en Bing, exploraremos continuamente la mejor manera de proteger la privacidad. Este documento se actualizará a medida que lo hagamos. Encontrará más información sobre cómo Microsoft protege la privacidad de nuestros usuarios en la Declaración de privacidad de Microsoft.  

En la experiencia Copilot en Windows, las habilidades de Windows pueden, como parte de su funcionalidad, compartir información del usuario con la conversación de chat. Esto está sujeto a la aprobación del usuario y se muestran indicaciones de la interfaz de usuario para confirmar la intención del usuario antes de compartir la información del usuario con la conversación de chat.

Microsoft sigue considerando las necesidades de niños y jóvenes como parte de las evaluaciones de riesgo de las nuevas características de IA generativa de Copilot en Bing. Todas las cuentas de menores de Microsoft que identifiquen al usuario como menor de 13 años o según lo especificado de alguna otra forma según la legislación local no pueden iniciar sesión para acceder a la nueva experiencia completa de Bing.   

Como se describió anteriormente, para todos los usuarios hemos implementado medidas de seguridad que mitigan contenido potencialmente dañino. En Copilot en Bing, los resultados se establecen como en el modo estricto de Búsqueda segura de Bing, que tiene el más alto nivel de protección de seguridad en la principal búsqueda de Bing, por lo que evita que los usuarios, incluidos los usuarios adolescentes, se expongan a contenido potencialmente dañino. Además de la información que hemos proporcionado en este documento y en nuestras preguntas más frecuentes sobre las funciones de chat, aquí encontrará más información sobre cómo funciona Copilot en Bing para evitar responder con contenido ofensivo inesperado en los resultados de búsqueda.  

Microsoft se ha comprometido a no entregar publicidad personalizada en función del comportamiento en línea a los niños cuya fecha de nacimiento, en su cuenta de Microsoft, los identifique como menores de 18 años. Esta importante protección se extenderá a los anuncios en Copilot en Bing funciones. Los usuarios pueden ver anuncios contextuales en función de la consulta o mensaje que se usa para interactuar con Bing.  

Para desbloquear el potencial transformador de la IA generativa, debemos generar confianza en la tecnología, proporcionando a los individuos la capacidad de comprender cómo se usan sus datos y proporcionándoles opciones y controles significativos sobre sus datos. Copilot en Bing está diseñado para dar prioridad al organismo humano, proporcionando información sobre cómo funciona el producto, así como sus limitaciones, y ampliando nuestras sólidas opciones y controles de los consumidores a Copilot en Bing funciones.   

La Declaración de privacidad de Microsoft proporciona información sobre nuestras prácticas de privacidad transparentes para proteger a nuestros clientes y establece información sobre los controles que proporcionan a nuestros usuarios la capacidad de ver y administrar sus datos personales. Para ayudar a garantizar que los usuarios tengan la información que necesitan cuando interactúan con las nuevas funciones conversacionales de Bing, las revelaciones del producto informan a los usuarios de que están interactuando con un producto de IA y proporcionamos vínculos a más preguntas frecuentes y explicaciones sobre cómo funcionan estas características. Microsoft seguirá escuchando los comentarios de los usuarios y agregará más detalles sobre las funciones conversacionales de Bing según sea necesario para ayudar a comprender cómo funciona el producto.   

Microsoft también proporciona a sus usuarios herramientas sólidas para ejercer sus derechos sobre sus datos personales. En el caso de los datos recopilados por Copilot en Bing, incluidos los mensajes y consultas de usuario, el Panel de privacidad de Microsoft proporciona a los usuarios autenticados (con sesión iniciada) herramientas para ejercer sus derechos sobre el interesado, incluso al proporcionar a los usuarios la capacidad de ver, exportar y eliminar el historial de conversaciones almacenado. Microsoft sigue enviando comentarios sobre cómo quieren administrar su nueva experiencia de Bing, incluido el uso de experiencias de administración de datos en contexto.   

Copilot en Bing también respeta las solicitudes bajo el derecho europeo a ser olvidado, siguiendo el proceso que Microsoft desarrolló y perfeccionó para la funcionalidad de búsqueda tradicional de Bing. Todos los usuarios pueden informar aquí sobre los contenidos generados y las respuestas, y nuestros usuarios europeos pueden utilizar este formulario para enviar solicitudes para bloquear los resultados de búsqueda en Europa bajo el derecho al olvido.   

Copilot en Bing respetará las opciones de privacidad de los usuarios, incluidas las que se hayan realizado anteriormente en Bing, como el consentimiento para la recopilación y el uso de datos que se solicita a través de los banners de cookies y los controles disponibles en el Panel de privacidad de Microsoft. Para ayudar a permitir la autonomía del usuario y la agencia en la toma de decisiones informadas, hemos usado nuestro proceso de revisión interna para examinar cuidadosamente cómo se presentan las opciones a los usuarios. 

Además de los controles disponibles a través del Panel de privacidad de Microsoft, que permiten a los usuarios ver, exportar y eliminar su historial de búsqueda, incluidos los componentes de su historial de chat, los usuarios autenticados que han habilitado la característica Historial de chat en el producto tienen la capacidad de ver, acceder y descargar el historial de chat a través de los controles del producto. Los usuarios pueden borrar chats específicos del historial de chats o desactivar completamente la funcionalidad del historial de chat en cualquier momento, visitando la página configuración de Bing. Los usuarios también pueden elegir si permitir la personalización para acceder a una experiencia más personalizada con respuestas personalizadas. Los usuarios pueden optar por no participar y no participar en la personalización en cualquier momento en Configuración de chat en la página Configuración de Bing.  Borrar chats específicos del historial de chats impide que se usen para la personalización.    Se proporciona más información sobre el historial y la personalización del chat a los usuarios en Copilot en Bing preguntas frecuentes

Copilot en Bing se creó teniendo en cuenta la privacidad, de modo que los datos personales se recopilan y usan solo según sea necesario y no se conservan más de lo necesario. Como se mencionó anteriormente, la característica Búsqueda visual en Copilot en Bing implementa un mecanismo que desenfoca rostros en las imágenes en el momento de la carga por parte de los usuarios, para que las imágenes faciales no se procesen ni almacenen más. Encontrará más información sobre los datos personales que recopila Bing, cómo se usan y cómo se almacenan y eliminan en la Declaración de privacidad de Microsoft, que también proporciona información sobre las nuevas funciones de chat de Bing.   

Copilot en Bing tiene directivas de retención y eliminación de datos para ayudar a garantizar que los datos personales recopilados a través de las funciones de chat de Bing solo se conservan el tiempo que sea necesario.   

Seguiremos aprendiendo y evolucionando nuestro enfoque para proporcionar Copilot en Bing y, a medida que lo hagamos, seguiremos trabajando en todas las disciplinas para alinear nuestra innovación de IA con los valores humanos y los derechos fundamentales, incluida la protección de los usuarios jóvenes y la privacidad.   

Copiloto con protección de datos comerciales 

Copilot con protección de datos comerciales, anteriormente conocido como Bing Chat Enterprise ("BCE"), fue lanzado por Microsoft en versión preliminar pública gratuita en julio de 2023 como un complemento gratuito para determinados clientes de M365. Copilot con protección de datos comerciales es una experiencia de búsqueda web mejorada por IA para usuarios finales empresariales. 

Al igual que con Copilot en Bing, cuando un copiloto con protección de datos comercial, el usuario final escribe un mensaje en la interfaz, el aviso, la conversación inmediata, los principales resultados de búsqueda y el metaprompt se envían como entradas al LLM. El modelo genera una respuesta usando el historial de conversaciones inmediato y rápido para contextualizar la solicitud, el metaprompt para alinear las respuestas con los principios de la IA de Microsoft y las expectativas del usuario, y los resultados de búsqueda a respuestas básicas en contenido existente de alto nivel de la web. Esto funciona del mismo modo que Copilot en Bing, tal y como se describe anteriormente en este documento, con la excepción de que Copilot con protección de datos comerciales solo se basa en el historial de conversaciones inmediato (no en el historial de conversaciones reciente) debido a que el historial de chats almacenado no es una característica compatible actualmente. Designer y Búsqueda visual ya están disponibles en esta versión. 

Al igual que otras tecnologías transformacionales, aprovechar los beneficios de la IA no está libre de riesgos y una parte principal del programa de IA responsable de Microsoft está diseñado para identificar riesgos potenciales, medir su propensión a ocurrir y crear mitigaciones para abordarlos. De nuevo, la descripción anterior de los esfuerzos de Microsoft para identificar, medir y mitigar los riesgos potenciales de Copilot en Bing también se aplica a esta versión, con algunas aclaraciones sobre las mitigaciones que se describen a continuación: 

Versión por fases, evaluación continua. Al igual que con Copilot Bing, para Copilot con protección de datos comerciales también hemos adoptado un enfoque de publicación incremental. El 18 de julio de 2023, Copilot con protección de datos comerciales pasó a estar disponible como versión preliminar gratuita para los clientes empresariales aptos con cuentas M365 específicas para activarlas para sus usuarios finales empresariales. Treinta (30) días después de notificar a los clientes empresariales aptos, Copilot con protección de datos comerciales se convirtió en "predeterminado" para esos mismos clientes. Copilot con protección de datos comerciales también ha pasado a estar disponible para cuentas M365 para profesores específicos. Copilot con protección de datos comerciales pasó a estar disponible de forma general para determinados clientes empresariales el 1 de diciembre de 2023. En el futuro, tenemos previsto ampliar el acceso a Copilot con protección de datos comerciales a más Microsoft Entra ID usuarios.

Términos de uso y código de conducta. Los usuarios finales de Copilot con protección de datos comerciales deben cumplir los Términos de uso del usuario final. Estos Términos de uso informan a los usuarios finales de los usos permisibles e impermisibles, así como las consecuencias de la violación de los términos.  

Operaciones y respuesta rápida. También usamos los procesos operativos y de supervisión continuos de Copilot en Bing para abordar cuándo Copilot con protección de datos comerciales recibe señales o recibe un informe que indique el posible uso incorrecto o las infracciones de los Términos de uso del usuario final

Comentarios, supervisión y supervisión. Copiloto con protección de datos comerciales usa las mismas herramientas que Copilot en Bing para que los usuarios envíen comentarios e informen de inquietudes, que son revisados por los equipos de operaciones de Microsoft. los procesos operativos de Copilot en Bing también se han ampliado para dar cabida a las características de Copilot con experiencias de protección de datos comerciales, por ejemplo, la actualización de la página Informar sobre un problema para incluir los nuevos tipos de contenido que los usuarios generan con la ayuda del modelo.  

Para garantizar que los usuarios finales tengan la información que necesitan cuando interactúan con Copilot con protección de datos comerciales, hay documentación del producto disponible en la parte inferior de este documento, incluidas las páginas Preguntas más frecuentes y Más información. 

Consultas y las respuestas generadas por los usuarios finales en Copilot con protección de datos comerciales se procesan y almacenan en consonancia con los estándares de tratamiento de datos empresariales. La oferta de Copilot con protección de datos comerciales solo está disponible actualmente para los clientes empresariales y sus usuarios finales adultos autenticados, por lo que no anticipamos que niños o jóvenes sean usuarios finales de Copilot con protección de datos comerciales en este momento. Además, Copilot con protección de datos comerciales no proporciona publicidad personalizada basada en el comportamiento a los usuarios finales. En su lugar, los anuncios que se muestran solo son anuncios relevantes para el contexto.  

Obtenga más información

Este documento forma parte de un esfuerzo más amplio de Microsoft para poner en práctica nuestros principios de IA. Para obtener más información, consulta:

Enfoque de Microsoft sobre IA responsable

Standard de IA responsable de Microsoft   

Recursos de IA responsable de Microsoft  

Cursos de Microsoft Azure Learning sobre IA responsable  

Acerca de este documento  

© 2023 Microsoft. Todos los derechos reservados. Este documento se proporciona "tal cual" y solo con fines informativos. La información y las vistas expresadas en este documento, incluidas las direcciones URL y otras referencias a sitios web de Internet, pueden cambiar sin previo aviso. Usted acepta el riesgo de utilizarlo. Algunos ejemplos son solo para ilustración y son ficticios. No se pretende ni se deduce ninguna asociación real.  

¿Necesita más ayuda?

¿Quiere más opciones?

Explore las ventajas de las suscripciones, examine los cursos de aprendizaje, aprenda a proteger su dispositivo y mucho más.