تخطي إلى المحتوى الرئيسي
الدعم
تسجيل الدخول باستخدام حساب Microsoft
تسجيل الدخول أو إنشاء حساب.
مرحباً،
تحديد استخدام حساب مختلف!
لديك حسابات متعددة
اختر الحساب الذي تريد تسجيل الدخول باستخدامه.

تاريخ التحديث الأخير: مايو 2024

أساسيات Copilot في Bing   

المقدمة  

في فبراير 2023، أطلقت Microsoft Bing الجديد، وهي تجربة بحث ويب محسنة الذكاء الاصطناعي. وهو يدعم المستخدمين من خلال تلخيص نتائج البحث على الويب وتوفير تجربة دردشة. يمكن للمستخدمين أيضا إنشاء محتوى إبداعي، مثل القصائد والنكات والقصص، ومع Bing Image Creator، الصور. يعمل Bing الجديد المحسن الذكاء الاصطناعي على مجموعة متنوعة من التقنيات المتقدمة من Microsoft وOpenAI، بما في ذلك GPT، وهو نموذج لغة كبير متطور (LLM)، وDALL-E، وهو نموذج تعلم عميق لإنشاء صور رقمية من أوصاف اللغة الطبيعية، وكلاهما من OpenAI. عملنا مع كلا النموذجين لعدة أشهر قبل الإصدار العام لتطوير مجموعة مخصصة من القدرات والتقنيات للانضمام إلى هذه التكنولوجيا المتطورة الذكاء الاصطناعي والبحث على الويب في Bing الجديد.  في نوفمبر 2023، قامت Microsoft بإعادة تسمية Bing الجديد إلى Copilot في Bing.

في Microsoft، نأخذ التزامنا تجاه الذكاء الاصطناعي المسؤول على محمل الجد. تم تطوير تجربة Copilot في Bing بما يتماشى مع مبادئ الذكاء الاصطناعي من Microsoft، وMicrosoft الذكاء الاصطناعي Standard المسؤولة، وشراكة مع خبراء الذكاء الاصطناعي المسؤولين في جميع أنحاء الشركة، بما في ذلك مكتب Microsoft الذكاء الاصطناعي المسؤولة، وفرقنا الهندسية، وMicrosoft Research، و Aether. يمكنك معرفة المزيد حول الذكاء الاصطناعي المسؤولة في Microsoft هنا.  

في هذه الوثيقة، نصف نهجنا تجاه الذكاء الاصطناعي المسؤولة عن Copilot في Bing. قبل الإصدار، اعتمدنا أحدث الطرق لتحديد وقياس وتخفيف المخاطر المحتملة وإساءة استخدام النظام وتأمين فوائده للمستخدمين. مع استمرارنا في تطوير Copilot في Bing منذ إصداره لأول مرة، واصلنا أيضا تعلم وتحسين جهودنا الذكاء الاصطناعي المسؤولة. سيتم تحديث هذا المستند بشكل دوري لتوصيل عملياتنا وأساليبنا المتطورة.   

المصطلحات الرئيسية  

Copilot في Bing هي تجربة بحث ويب محسنة الذكاء الاصطناعي. في أثناء تشغيله على تقنية قوية وجديدة، نبدأ بتعريف بعض المصطلحات الرئيسية.  

نماذج التعلم الآلي التي تساعد على فرز البيانات في فئات أو فئات معلومات مسماة. في Copilot في Bing، تتمثل إحدى الطرق التي نستخدم بها المصنفات في المساعدة في اكتشاف المحتوى الذي يحتمل أن يكون ضارا يقدمه المستخدمون أو يتم إنشاؤه بواسطة النظام من أجل التخفيف من توليد هذا المحتوى وإساءة استخدام النظام أو إساءة استخدامه. 

يقع Copilot في Bing في نتائج البحث على الويب عندما يبحث المستخدمون عن المعلومات. وهذا يعني أننا نقوم بتوسيط الاستجابة المقدمة لاستعلام المستخدم أو المطالبة به على محتوى رفيع المستوى من الويب، ونوفر ارتباطات إلى مواقع الويب حتى يتمكن المستخدمون من معرفة المزيد. يصنف Bing محتوى البحث على الويب من خلال ميزات الترجيح بشكل كبير مثل الصلة والجودة والمصداقية والطازجة. نحن نصف هذه المفاهيم بمزيد من التفصيل في كيفية تقديم Bing لنتائج البحث (راجع "الجودة والمصداقية" في "كيف ترتيب Bing نتائج البحث").   

نحن نعتبر الاستجابات المستندة إلى ذلك استجابات من Copilot في Bing حيث يتم دعم العبارات من خلال المعلومات الواردة في مصادر الإدخال، مثل نتائج البحث على الويب من الاستعلام أو المطالبة، وقاعدة معارف Bing للمعلومات التي تم التحقق منها، وبالنسبة لتجربة الدردشة، محفوظات المحادثة الأخيرة من الدردشة. الاستجابات غير الأرضية هي تلك التي لا يتم فيها وضع عبارة في مصادر الإدخال هذه.  

نماذج اللغات الكبيرة (LLMs) في هذا السياق هي نماذج الذكاء الاصطناعي يتم تدريبها على كميات كبيرة من البيانات النصية للتنبؤ بالكلمات بالتسلسلات. يمكن ل LLMs أداء مجموعة متنوعة من المهام، مثل إنشاء النص والتلخيص والترجمة والتصنيف والمزيد.  

metaprompt هو برنامج يعمل على توجيه سلوك النظام. تساعد أجزاء من metaprompt على محاذاة سلوك النظام مع مبادئ Microsoft الذكاء الاصطناعي وتوقعات المستخدم. على سبيل المثال، قد يتضمن metaprompt سطرا مثل "الاتصال بلغة المستخدم التي تختارها."  

طريقة أو مجموعة من الأساليب المصممة لتقليل المخاطر المحتملة التي قد تنشأ من استخدام ميزات تستند إلى الذكاء الاصطناعي في Copilot في Bing.  

النص والصوت والصور و/أو الاستعلامات الممكنة الأخرى التي يرسلها المستخدم إلى Bing كمدخل إلى النموذج الذي يشغل تجارب إنشاء جديدة تستند إلى الذكاء الاصطناعي في Bing. على سبيل المثال، قد يقوم المستخدم بإدخال المطالبة التالية:  

"إنني أخطط للقيام برحلة بمناسبة الذكرى السنوية لنا في أيلول/سبتمبر. ما هي بعض الأماكن التي يمكننا الذهاب إليها ضمن رحلة لمدة 3 ساعات من لندن هيثرو؟”  

النص الذي يرسله المستخدم إلى Bing من شريط البحث للبحث في الويب. في هذا المستند، نميز استعلاما (للبحث على الويب) عن المطالبة (للتجارب التوليدية المستندة إلى الذكاء الاصطناعي في Bing). على سبيل المثال، قد يقوم المستخدم بإدخال الاستعلام التالي للبحث في الويب:  

"وجهات السفر بالقرب من مطار لندن هيثرو"  

التقنيات التي يستخدمها الخبراء لتقييم قيود النظام ونقاط ضعفه واختبار فعالية عوامل التخفيف المخطط لها. يستخدم اختبار الفريق الأحمر واختبار الإجهاد لتحديد المخاطر المحتملة ويميزان عن القياس المنهجي للمخاطر.   

النص والصورة والمخططات وما إلى ذلك التي يقوم Copilot في Bing بمخرجاتها استجابة لمطالبة. تتضمن مرادفات "الاستجابة" "الإكمال" و"الجيل" و"الإجابة". على سبيل المثال، قد يوفر Bing الاستجابة التالية للمطالبة التي استخدمناها في تعريف "المطالبة" أعلاه:   

"تهانينا بمناسبة الذكرى السنوية! هناك العديد من الأماكن التي يمكنك الذهاب التي تقع على بعد 3 ساعات رحلة من لندن هيثرو. ووفقا لأحد المصادر، فإن بعض عمليات الهروب في عطلة نهاية الأسبوع في غضون ثلاث ساعات بالطائرة من لندن هي بيلباو وكوبنهاجن وريكيافيك واستوكهولم 1 و2. يقترح مصدر آخر بعض من أفضل الأماكن للذهاب في أوروبا في سبتمبر هي كراكوف، فلورنسا، ولشبونة 3، 4. يمكنك أيضا التحقق من الرحلات الجوية المباشرة من لندن هيثرو إلى وجهات مختلفة ومعرفة ما يروق لك 5. آمل أن يكون لديك رحلة رائعة!”  

الاستخدامات المقصودة وتجارب الذكاء الاصطناعي الجديدة  

إن Copilot في الاستخدامات المقصودة ل Bing هي توصيل المستخدمين بنتائج البحث ذات الصلة، ومراجعة النتائج من جميع أنحاء الويب للعثور على الإجابات التي يبحث عنها المستخدمون وتلخيصها، ومساعدة المستخدمين على تحسين أبحاثهم للحصول على إجابات باستخدام تجربة دردشة، وإبداع شرارة من خلال مساعدة المستخدمين على إنشاء محتوى. تدعم Copilot في تجارب Bing الذكاء الاصطناعي التوليدية أدناه هدف أن تكون جزءا الذكاء الاصطناعي مدعوما بالويب.  

تلخيص. عندما يرسل المستخدمون استعلام بحث على Copilot في Bing، يعالج نظام Bing الاستعلام، ويجري عملية بحث واحدة أو أكثر على الويب، ويستخدم أعلى نتائج بحث الويب لإنشاء ملخص للمعلومات لتقديمها للمستخدمين. تتضمن هذه الملخصات مراجع لمساعدة المستخدمين على رؤية نتائج البحث المستخدمة للمساعدة في إنشاء الملخص والوصول إليها بسهولة. يمكن أن تظهر الملخصات على الجانب الأيمن من صفحة نتائج البحث وضمن تجربة الدردشة.  

تجربة الدردشة. بالإضافة إلى التلخيص، يمكن للمستخدمين الدردشة مع Copilot في نظام Bing عبر النص أو الصورة أو الإدخال الصوتي، وطرح أسئلة المتابعة لتوضيح عمليات البحث والعثور على معلومات جديدة، وإرسال مطالبات لإنشاء محتوى إبداعي. يتم أيضا تضمين المراجع في تجربة الدردشة عندما يقوم Copilot في Bing بتلخيص نتائج البحث في الاستجابة.   

جيل المحتوى الإبداعي. في كل من تجربة الدردشة وعلى صفحة البحث، يمكن للمستخدمين إنشاء قصائد ونكت وقصص وصور ومحتوى آخر بمساعدة Copilot في Bing.  يتم إنشاء الصور بواسطة Designer (منشئ صور Bing السابق)، ويمكن للمستخدمين الوصول إلى الميزة عبر الصفحة الرئيسية للمصمم بالإضافة إلى صفحة Copilot. 

كيف يعمل Copilot في Bing؟  

مع Copilot في Bing، قمنا بتطوير نهج مبتكر لجلب أحدث LLات LLMs إلى البحث على الويب. عندما يدخل مستخدم مطالبة في Copilot في Bing، يتم إرسال المطالبة ومحفوظات المحادثات الأخيرة و metaprompt وأعلى نتائج البحث كإدخالات إلى LLM. ينشئ النموذج استجابة باستخدام مطالبة المستخدم ومحفوظات المحادثات الأخيرة لوضع الطلب في سياقه، ومprompt لمحاذاة الاستجابات مع مبادئ Microsoft الذكاء الاصطناعي وتوقعات المستخدم، ونتائج البحث للاستجابات الأساسية في المحتوى الحالي عالي المستوى من الويب.   

يتم تقديم الاستجابات للمستخدمين بتنسيقات مختلفة متعددة، مثل الارتباطات التقليدية لمحتوى الويب والملخصات التي تم إنشاؤها الذكاء الاصطناعي والصور واستجابات الدردشة. ستتضمن التلخيصات واستجابات الدردشة التي تعتمد على نتائج البحث على الويب مراجع وقسم "معرفة المزيد" أسفل الاستجابات، مع ارتباطات إلى نتائج البحث التي تم استخدامها لاستنباط الاستجابة. يمكن للمستخدمين النقر فوق هذه الارتباطات لمعرفة المزيد حول موضوع والمعلومات المستخدمة لاستخلاص الملخص أو استجابة الدردشة.    

في تجربة Copilot، يمكن للمستخدمين إجراء عمليات البحث على الويب بشكل محادثة عن طريق إضافة سياق إلى مطالبتهم والتفاعل مع استجابات النظام لتحديد اهتمامات البحث الخاصة بهم بشكل أكبر. على سبيل المثال، قد يطرح المستخدم أسئلة المتابعة، أو يطلب معلومات توضيحية إضافية، أو يستجيب للنظام بطريقة محادثة. في تجربة الدردشة، يمكن للمستخدمين أيضا تحديد استجابة من اقتراحات مكتوبة مسبقا، والتي نسميها اقتراحات الدردشة. تظهر هذه الأزرار بعد كل استجابة من Copilot وتوفر مطالبات مقترحة لمتابعة المحادثة ضمن تجربة الدردشة. تظهر اقتراحات الدردشة أيضا جنبا إلى جنب مع المحتوى الملخص في صفحة نتائج البحث كنقطة إدخال لتجربة الدردشة.  

يسمح Copilot في Bing للمستخدم أيضا بإنشاء القصص والقصائد وكلمات الأغاني والصور بمساعدة Bing. عندما يكتشف Copilot في Bing نية المستخدم لإنشاء محتوى إبداعي (على سبيل المثال، تبدأ المطالبة ب "اكتب لي ...")، سيقوم النظام، في معظم الحالات، بإنشاء محتوى يستجيب لمطالبة المستخدم. وبالمثل، عندما يكتشف Copilot في Bing نية المستخدم لإنشاء صورة (على سبيل المثال، تبدأ المطالبة ب "ارسم لي ...")، سيقوم النظام، في معظم الحالات، بإنشاء صورة تستجيب لمطالبة المستخدم. في تجربة البحث المرئي في الدردشة، باستخدام صورة تم التقاطها بواسطة كاميرا المستخدم، أو تحميلها من جهاز المستخدم، أو ربطها من الويب، يمكن للمستخدمين مطالبة Copilot في Bing بفهم السياق والتفسير والإجابة على الأسئلة حول الصورة.  يمكن للمستخدمين أيضا تحميل ملفاتهم إلى Copilot لتفسير المعلومات منها أو تحويلها أو معالجتها أو حسابها. في تجربة Microsoft Designer التي يمكن للمستخدمين الوصول إليها من خلال Copilot في Bing، لا يمكن للمستخدمين إنشاء صور باستخدام المطالبات فحسب، بل يمكنهم أيضا تغيير حجمها أو إعادة ترتيبها، أو إجراء تعديلات مثل ضبابية الخلفية أو جعل الألوان أكثر حيوية. 

لدى المستخدمين الذين لديهم حسابات Microsoft (MSA) الآن أيضا خيار الاشتراك في Copilot Pro الذي يوفر تجربة محسنة، بما في ذلك الأداء المتسارع وإنشاء صورة أسرع الذكاء الاصطناعي. يتوفر Copilot Pro حاليا في بلدان محدودة، ونخطط لجعل Copilot Pro متاحا في المزيد من الأسواق قريبا.

لمعرفة المزيد حول Copilot Pro، يرجى زيارة هنا.

تسعى Copilot في Bing جاهدة لتوفير نتائج بحث متنوعة وشاملة مع التزامها بالوصول المجاني والمفتوحة إلى المعلومات. في الوقت نفسه، تشمل جهودنا في جودة المنتج العمل على تجنب الترويج عن غير قصد للمحتوى الذي يحتمل أن يكون ضارا للمستخدمين. يتوفر مزيد من المعلومات حول كيفية تصنيف Bing للمحتوى، بما في ذلك كيفية تعريفه لأهمية صفحة الويب وجودتها ومصداقيتها، في "إرشادات مسؤول ويب Bing".   يتوفر مزيد من المعلومات حول مبادئ الإشراف على المحتوى في Bing في "كيف يقدم Bing نتائج البحث."   

في تجربة Copilot في Windows، يمكن ل Copilot في Bing العمل مع نظام التشغيل Windows لتوفير مهارات خاصة ب Windows مثل تغيير نسق المستخدم أو خلفيته، وتغيير الإعدادات مثل الصوت وBluetooth والشبكات. تسمح هذه التجارب للمستخدم بتكوين إعداداته وتحسين تجربة المستخدم الخاصة به باستخدام مطالبات اللغة الطبيعية إلى LLM. يمكن أيضا توفير وظائف خاصة بالتطبيق من مكونات التطبيق الإضافية التابعة لجهة خارجية. يمكن أن تؤدي هذه إلى أتمتة المهام المتكررة وتحقيق كفاءة أكبر للمستخدم. نظرا لأن LLMs يمكن أن ترتكب أحيانا أخطاء، يتم توفير مطالبات تأكيد المستخدم المناسبة بحيث يكون المستخدم هو الحكم النهائي للتغييرات التي يمكن إجراؤها. 

تحديد المخاطر وقياسها والتخفيف من حدتها  

مثل التقنيات التحويلية الأخرى، فإن الاستفادة من فوائد الذكاء الاصطناعي ليست خالية من المخاطر، وتم تصميم جزء أساسي من برنامج الذكاء الاصطناعي المسؤول من Microsoft لتحديد المخاطر المحتملة وقياس ميلها إلى الحدوث وبناء عوامل تخفيف المخاطر لمعالجتها. سعينا، مسترشدين بمبادئنا الذكاء الاصطناعي ومعيار الذكاء الاصطناعي المسؤول لدينا، إلى تحديد وقياس وتخفيف المخاطر المحتملة وإساءة استخدام Copilot في Bing مع تأمين الاستخدامات التحويلية والمفيدة التي توفرها التجربة الجديدة. في الأقسام أدناه، نصف نهجنا التكراري لتحديد المخاطر المحتملة وقياسها والتخفيف من حدتها.   

على مستوى النموذج، بدأ عملنا بتحليلات استكشافية ل GPT-4 في أواخر صيف عام 2022. وشمل ذلك إجراء اختبار شامل للفريق الأحمر بالتعاون مع OpenAI. وقد صمم هذا الاختبار لتقييم كيفية عمل أحدث التقنيات دون تطبيق أي ضمانات إضافية عليها. وكان هدفنا المحدد في هذا الوقت هو إنتاج استجابات ضارة، وإيجاد السبل المحتملة لإساءة الاستخدام، وتحديد القدرات والقيود. ساهمت التعلمات المجمعة عبر OpenAI وMicrosoft في التقدم في تطوير النموذج، وبالنسبة لنا في Microsoft، أبلغتنا بفهمنا للمخاطر وساهمت في استراتيجيات التخفيف المبكرة ل Copilot في Bing.  

بالإضافة إلى اختبار الفريق الأحمر على مستوى النموذج، أجرى فريق متعدد التخصصات من الخبراء العديد من جولات اختبار الفريق الأحمر على مستوى التطبيق على Copilot في Bing الذكاء الاصطناعي التجارب قبل إتاحتها للجمهور في معاينة الإصدار المحدود. ساعدتنا هذه العملية على فهم أفضل لكيفية استغلال النظام من قبل الجهات الفاعلة الخصومية وتحسين عوامل التخفيف من المخاطر لدينا. كما قام مختبرو الإجهاد غير المتطفلين بتقييم ميزات Bing الجديدة على نطاق واسع بحثا عن أوجه القصور والثغرات الأمنية. بعد الإصدار، يتم دمج تجارب الذكاء الاصطناعي الجديدة في Bing في البنية الأساسية الحالية لقياس الإنتاج والاختبار في مؤسسة Bing الهندسية. على سبيل المثال، يحاول مختبرو الفريق الأحمر من مناطق وخلفيات مختلفة بشكل مستمر ومنهجي اختراق النظام، وتستخدم نتائجهم لتوسيع مجموعات البيانات التي يستخدمها Bing لتحسين النظام.  

يمكن أن يعرض اختبار الفريق الأحمر واختبار الإجهاد مثيلات مخاطر محددة، ولكن في الإنتاج سيكون لدى المستخدمين ملايين الأنواع المختلفة من المحادثات مع Copilot في Bing. علاوة على ذلك، تكون المحادثات متعددة الأدوار وسياقية، وتحديد المحتوى الضار داخل المحادثة مهمة معقدة. لفهم ومعالجة احتمالية المخاطر في Copilot في تجارب Bing الذكاء الاصطناعي، قمنا بتطوير مقاييس الذكاء الاصطناعي إضافية مسؤولة خاصة بتلك التجارب الذكاء الاصطناعي الجديدة لقياس المخاطر المحتملة مثل الهروب من السجن والمحتوى الضار والمحتوى غير الأساسي. كما قمنا بتمكين القياس على نطاق واسع من خلال مسارات القياس الآلية جزئيا. في كل مرة يتغير فيها المنتج، أو يتم تحديث عوامل التخفيف الحالية، أو تقترح عوامل تخفيف جديدة، نقوم بتحديث مسارات القياس الخاصة بنا لتقييم أداء المنتج ومقاييس الذكاء الاصطناعي المسؤولة.  

كمثال توضيحي، يتضمن مسار القياس المؤتمت جزئيا المحدث للمحتوى الضار ابتكارين رئيسيين: محاكاة المحادثة والتعليق التوضيحي التلقائي للمحادثة التي يتحقق منها الإنسان. أولا، قام خبراء الذكاء الاصطناعي المسؤولون ببناء قوالب لالتقاط بنية المحادثات ومحتواها التي قد تؤدي إلى أنواع مختلفة من المحتوى الضار. ثم تم إعطاء هذه القوالب إلى عامل محادثة تفاعل كمستخدم افتراضي مع Copilot في Bing، ما أدى إلى إنشاء محادثات محاكاة. لتحديد ما إذا كانت هذه المحادثات المحاكية تحتوي على محتوى ضار، اتخذنا إرشادات يستخدمها اللغويون الخبراء عادة لتسمية البيانات وتعديلها لاستخدامها من قبل GPT-4 لتسمية المحادثات على نطاق واسع، وصقل الإرشادات حتى يتم التوصل إلى اتفاق كبير بين المحادثات المسماة بالنموذج والمحادثات ذات التسمية البشرية. وأخيرا، استخدمنا المحادثات المسماة بالنموذج لحساب مقياس مسؤول الذكاء الاصطناعي يلتقط فعالية Copilot في Bing في التخفيف من المحتوى الضار.   

تمكننا مسارات القياس لدينا من إجراء القياس بسرعة للمخاطر المحتملة على نطاق واسع. بينما نحدد المشكلات الجديدة خلال فترة المعاينة واختبار الفريق الأحمر المستمر، نواصل توسيع مجموعات القياس لتقييم المخاطر الإضافية.  

بينما حددنا المخاطر المحتملة وإساءة استخدامها من خلال عمليات مثل اختبار الفريق الأحمر واختبار الإجهاد وقياسها بالنهج المبتكرة الموضحة أعلاه، قمنا بتطوير عوامل تخفيف إضافية لتلك المستخدمة للبحث التقليدي. فيما يلي، نصف بعض عوامل التخفيف هذه. سنواصل مراقبة Copilot في Bing الذكاء الاصطناعي التجارب لتحسين أداء المنتج والتخفيف من المخاطر.  

إصدار مرحلي، تقييم مستمر. نحن ملتزمون بتعلم وتحسين نهجنا المسؤول الذكاء الاصطناعي باستمرار مع تطور تقنياتنا وسلوك المستخدم. كانت استراتيجية الإصدار التزايدي جزءا أساسيا من كيفية نقل تقنيتنا بأمان من المختبرات إلى العالم، ونحن ملتزمون بعملية متعمدة ومدروسة لتأمين فوائد Copilot في Bing. لقد سمح لنا الحد من عدد الأشخاص الذين يمكنهم الوصول خلال فترة المعاينة باكتشاف كيفية استخدام الأشخاص ل Copilot في Bing، بما في ذلك كيفية إساءة استخدام الأشخاص له، حتى نتمكن من محاولة التخفيف من المشكلات الناشئة قبل الإصدار الأوسع. على سبيل المثال، نطلب من المستخدمين المصادقة باستخدام حساب Microsoft الخاص بهم قبل الوصول إلى تجربة Bing الجديدة الكاملة. يمكن للمستخدمين غير المصادق عليهم الوصول إلى معاينة محدودة فقط للتجربة. هذه الخطوات تثبط إساءة الاستخدام وتساعدنا على (حسب الضرورة) اتخاذ الإجراءات المناسبة استجابة لانتهاكات قواعد السلوك.  نحن نقوم بإجراء تغييرات على Copilot في Bing يوميا لتحسين أداء المنتج، وتحسين عوامل التخفيف الحالية، وتنفيذ عمليات التخفيف الجديدة استجابة لتعلمنا خلال فترة المعاينة.  

الأساس في نتائج البحث. كما هو مذكور أعلاه، تم تصميم Copilot في Bing لتوفير استجابات تدعمها المعلومات في نتائج البحث على الويب عندما يبحث المستخدمون عن معلومات. على سبيل المثال، يتم تزويد النظام بالنص من أعلى نتائج البحث والإرشادات عبر metaprompt لاستصدار استجابته. ومع ذلك، في تلخيص المحتوى من الويب، قد تتضمن Copilot في Bing معلومات في استجابتها غير موجودة في مصادر الإدخال الخاصة بها. بمعنى آخر، قد ينتج عنه نتائج غير مؤرضة. وقد أشارت تقييماتنا المبكرة إلى أن النتائج غير الأساسية في الدردشة قد تكون أكثر شيوعا لأنواع معينة من المطالبات أو الموضوعات من غيرها، مثل طلب العمليات الحسابية الرياضية، والمعلومات المالية أو السوقية (على سبيل المثال، أرباح الشركة، وبيانات أداء الأسهم)، ومعلومات مثل التواريخ الدقيقة للأحداث أو أسعار محددة للعناصر. يجب على المستخدمين دائما توخي الحذر واستخدام أفضل حكم لديهم عند عرض نتائج البحث الملخصة، سواء في صفحة نتائج البحث أو في تجربة الدردشة. لقد اتخذنا عدة تدابير للتخفيف من مخاطر أن المستخدمين قد يعتمدون اعتمادا مفرطا على المحتوى الذي لم يتم إنشاؤه في سيناريوهات التلخيص وتجارب الدردشة. على سبيل المثال، تتضمن الاستجابات في Copilot في Bing التي تستند إلى نتائج البحث مراجع إلى مواقع الويب المصدر للمستخدمين للتحقق من الاستجابة ومعرفة المزيد. كما يتم تزويد المستخدمين بإشعار صريح بأنهم يتفاعلون مع نظام الذكاء الاصطناعي وينصحون بالتحقق من مواد مصدر نتائج الويب لمساعدتهم على استخدام أفضل حكم لديهم.  

الذكاء الاصطناعي المصنفات المستندة إلى الملفات التعريفية للتخفيف من المخاطر المحتملة أو إساءة الاستخدام. قد ينتج عن استخدام LLMs محتوى إشكالي قد يؤدي إلى مخاطر أو إساءة استخدام. ويمكن أن تشمل الأمثلة المخرجات المتعلقة بالإيذاء الذاتي أو العنف أو المحتوى الرسومي أو الملكية الفكرية أو المعلومات غير الدقيقة أو الكلام البغيض أو النص الذي يمكن أن يتعلق بأنشطة غير قانونية. المصنفات والعناصر الوصفية مثالان على عوامل التخفيف التي تم تنفيذها في Copilot في Bing للمساعدة في تقليل مخاطر هذه الأنواع من المحتوى. تصنف المصنفات النص لوضع علامة على أنواع مختلفة من المحتوى الذي يحتمل أن يكون ضارا في استعلامات البحث أو مطالبات الدردشة أو الاستجابات التي تم إنشاؤها. يستخدم Bing المصنفات المستندة إلى الذكاء الاصطناعي وعوامل تصفية المحتوى، والتي تنطبق على جميع نتائج البحث والميزات ذات الصلة؛ لقد صممنا مصنفات ومرشحات محتوى إضافية فورية خصيصا لمعالجة المخاطر المحتملة التي يثيرها Copilot في ميزات Bing. تؤدي العلامات إلى عوامل تخفيف محتملة، مثل عدم إرجاع المحتوى الذي تم إنشاؤه إلى المستخدم، أو تحويل المستخدم إلى موضوع مختلف، أو إعادة توجيه المستخدم إلى البحث التقليدي. يتضمن Metaprompting إعطاء إرشادات للنموذج لتوجيه سلوكه، بما في ذلك بحيث يتصرف النظام وفقا لمبادئ microsoft الذكاء الاصطناعي وتوقعات المستخدم. على سبيل المثال، قد يتضمن metaprompt سطرا مثل "الاتصال بلغة المستخدم التي تختارها."   

حماية الخصوصية في Visual Search في Copilot في Bing. عندما يقوم المستخدمون بتحميل صورة كجزء من مطالبة الدردشة الخاصة بهم، سيستخدم Copilot في Bing تقنية ضبابية الوجه قبل إرسال الصورة إلى نموذج الذكاء الاصطناعي. يتم استخدام ضبابية الوجه لحماية خصوصية الأفراد في الصورة. تعتمد تقنية ضبابية الوجه على أدلة السياق لتحديد مكان التمويه وستحاول طمس جميع الوجوه. مع ضبابية الوجوه، قد يقارن نموذج الذكاء الاصطناعي الصورة المدخلة مع الصور المتاحة للجمهور على الإنترنت. ونتيجة لذلك، على سبيل المثال، قد يكون Copilot في Bing قادرا على تحديد لاعب كرة سلة مشهور من صورة لهذا اللاعب في ملعب كرة سلة عن طريق إنشاء تمثيل رقمي يعكس رقم قميص اللاعب ولون جيرسي ووجود طوق كرة سلة وما إلى ذلك. لا تخزن Copilot في Bing التمثيلات الرقمية للأشخاص من الصور التي تم تحميلها ولا تشاركها مع جهات خارجية. يستخدم Copilot في Bing تمثيلات رقمية للصور التي يقوم المستخدمون بتحميلها فقط لغرض الاستجابة لمطالبات المستخدمين، ثم يتم حذفها في غضون 30 يوما بعد انتهاء الدردشة.    

إذا طلب المستخدم من Copilot في Bing معلومات حول صورة تم تحميلها، فقد تعكس استجابات الدردشة تأثير ضبابية الوجه على قدرة النموذج على توفير معلومات حول الصورة التي تم تحميلها. على سبيل المثال، قد يصف Copilot في Bing شخص ما بأنه لديه وجه غير واضح.    

الحد من انحراف المحادثة. خلال فترة المعاينة، تعلمنا أن جلسات الدردشة الطويلة جدا يمكن أن تؤدي إلى استجابات متكررة أو غير مفيدة أو غير متسقة مع Copilot بنبرة Bing المقصودة. لمعالجة انحراف المحادثة هذا، قمنا بحصر عدد المنعطفات (عمليات التبادل التي تحتوي على سؤال مستخدم ورد من Copilot في Bing) لكل جلسة دردشة. ونواصل تقييم النهج الإضافية للتخفيف من حدة هذه المشكلة.  

الإثراء الفوري. في بعض الحالات، قد تكون مطالبة المستخدم غامضة. عند حدوث ذلك، قد يستخدم Copilot في Bing LLM للمساعدة في إنشاء مزيد من التفاصيل في المطالبة للمساعدة في ضمان حصول المستخدمين على الاستجابة التي يسعون إليها. لا يعتمد هذا الإثراء السريع على أي معرفة بالمستخدم أو عمليات البحث السابقة الخاصة به، ولكن بدلا من ذلك على نموذج الذكاء الاصطناعي. ستكون هذه الاستعلامات المنقحة مرئية في محفوظات الدردشة الخاصة بالمستخدم، ويمكن حذفها، مثل عمليات البحث الأخرى، باستخدام عناصر التحكم داخل المنتج.  

تدخلات التصميم المتمركزة حول المستخدم وتجربة المستخدم. يعد التصميم الذي يتمحور حول المستخدم وتجارب المستخدم جانبا أساسيا من نهج Microsoft تجاه الذكاء الاصطناعي المسؤولة. الهدف هو جذر تصميم المنتج في احتياجات وتوقعات المستخدمين. بينما يتفاعل المستخدمون مع Copilot في Bing لأول مرة، نقدم نقاط لمس مختلفة مصممة لمساعدتهم على فهم قدرات النظام، والكشف لهم عن أن Copilot في Bing مدعوم من الذكاء الاصطناعي، والتواصل مع القيود. تم تصميم التجربة بهذه الطريقة لمساعدة المستخدمين على تحقيق أقصى استفادة من Copilot في Bing وتقليل مخاطر الإفراط في الاعتماد. تساعد عناصر التجربة أيضا المستخدمين على فهم Copilot في Bing وتفاعلاتهم معها بشكل أفضل. وتشمل هذه اقتراحات الدردشة الخاصة الذكاء الاصطناعي المسؤولة (على سبيل المثال، كيف يستخدم Bing الذكاء الاصطناعي؟ لماذا لا يستجيب Copilot في Bing لبعض الموضوعات؟)، وتفسيرات القيود، والطرق التي يمكن للمستخدمين معرفة المزيد حول كيفية عمل النظام والإبلاغ عن الملاحظات، والمراجع القابلة للتنقل بسهولة التي تظهر في الاستجابات لإظهار النتائج والصفحات التي تستند إليها الاستجابات.  

الذكاء الاصطناعي الكشف. يوفر Copilot في Bing العديد من نقاط اللمس للكشف عن الذكاء الاصطناعي مفيد حيث يتم إعلام المستخدمين بأنهم يتفاعلون مع نظام الذكاء الاصطناعي بالإضافة إلى فرص لمعرفة المزيد حول Copilot في Bing. يمكن أن يساعد تمكين المستخدمين بهذه المعرفة على تجنب الاعتماد المفرط على الذكاء الاصطناعي والتعرف على نقاط قوة النظام وقيوده.  

المصدر الإعلامي.قام Microsoft Designer بتمكين ميزة "بيانات اعتماد المحتوى"، والتي تستخدم أساليب التشفير لوضع علامة على المصدر أو "المصدر" لجميع الصور التي تم إنشاؤها الذكاء الاصطناعي تم إنشاؤها على Designer. تعرض ميزة العلامة المائية الرقمية غير المرئية مصدر الإنشاء الأصلي ووقته وتاريخه، ولا يمكن تغيير هذه المعلومات. تستخدم التكنولوجيا معايير حددها التحالف من أجل المحتوى والمصادقة (C2PA) لإضافة طبقة إضافية من الثقة والشفافية للصور التي تم إنشاؤها الذكاء الاصطناعي. Microsoft هي أحد المؤسسين المشاركين ل C2PA وساهمت في تقنية مصدر المحتوى الرقمي الأساسية. 

شروط الاستخدام ومدونة قواعد السلوك. يحكم هذا المورد استخدام Copilot في Bing. يجب على المستخدمين الالتزام بشروط الاستخدام ومدونة السلوك، التي تعلمهم، من بين أمور أخرى، بالاستخدامات المسموح بها وغير المسموح بها ونتائج انتهاك الشروط. توفر شروط الاستخدام أيضا إفصاحات إضافية للمستخدمين وتعمل كمرجع مفيد للمستخدمين للتعرف على Copilot في Bing.   

العمليات والاستجابة السريعة. نستخدم أيضا Copilot في عمليات Bing التشغيلية والمراقبة المستمرة لمعالجة عندما يتلقى Copilot في Bing إشارات، أو يتلقى تقريرا، يشير إلى إساءة استخدام أو انتهاكات محتملة لشروط الاستخدام أو قواعد السلوك.  

الملاحظات والمراقبة والإشراف. تعتمد تجربة Copilot في Bing على الأدوات الحالية التي تسمح للمستخدمين بإرسال الملاحظات والإبلاغ عن المخاوف، والتي تتم مراجعتها من قبل فرق عمليات Microsoft. كما توسعت العمليات التشغيلية ل Bing لاستيعاب الميزات داخل Copilot في تجربة Bing، على سبيل المثال، تحديث صفحة الإبلاغ عن القلق لتضمين الأنواع الجديدة من المحتوى التي ينشئها المستخدمون بمساعدة النموذج.   

سيستمر نهجنا في تحديد المخاطر وقياسها والتخفيف من حدتها في التطور مع معرفة المزيد، ونحن نقوم بالفعل بإجراء تحسينات استنادا إلى الملاحظات التي تم جمعها خلال فترة المعاينة.     

الكشف التلقائي عن المحتوى. عندما يقوم المستخدمون بتحميل الصور كجزء من مطالبة الدردشة الخاصة بهم، ينشر Copilot في Bing أدوات للكشف عن صور الاستغلال والاعتداء الجنسيين للأطفال (CSEAI)، وأبرزها تقنية مطابقة تجزئة PhotoDNA. طورت Microsoft PhotoDNA للمساعدة في العثور على تكرارات CSEAI المعروفة. تقوم Microsoft بإبلاغ المركز الوطني للأطفال المفقودين والمستغلين (NCMEC)، كما هو مطلوب بموجب القانون الأمريكي. عندما يقوم المستخدمون بتحميل الملفات لتحليلها أو معالجتها، ينشر Copilot المسح الآلي للكشف عن المحتوى الذي قد يؤدي إلى مخاطر أو إساءة استخدام، مثل النص الذي قد يتعلق بأنشطة غير قانونية أو تعليمات برمجية ضارة.

حماية الخصوصية  

إن اعتقاد Microsoft القديم بأن الخصوصية هي حق أساسي من حقوق الإنسان قد أبلغ كل مرحلة من مراحل تطوير ونشر Microsoft ل Copilot في تجربة Bing. تعد التزاماتنا بحماية خصوصية جميع المستخدمين، بما في ذلك من خلال تزويد الأفراد بالشفافية والتحكم في بياناتهم ودمج الخصوصية حسب التصميم من خلال تقليل البيانات والحد من الغرض، أساسية ل Copilot في Bing. بينما نطور نهجنا لتوفير Copilot في تجارب Bing الذكاء الاصطناعي التوليدية، سنستكشف باستمرار أفضل طريقة لحماية الخصوصية. سيتم تحديث هذا المستند أثناء القيام بذلك. يتوفر مزيد من المعلومات حول كيفية حماية Microsoft لخصوصية المستخدمين في بيان خصوصية Microsoft.  

في تجربة Copilot في Windows، قد تشارك مهارات Windows، كجزء من وظائفها، معلومات المستخدم مع محادثة الدردشة. يخضع هذا لموافقة المستخدم ويتم عرض مطالبات واجهة المستخدم لتأكيد هدف المستخدم قبل مشاركة معلومات المستخدم مع محادثة الدردشة.

تواصل Microsoft النظر في احتياجات الأطفال والشباب كجزء من تقييمات المخاطر لميزات الذكاء الاصطناعي التوليدية الجديدة في Copilot في Bing. لا يمكن لجميع حسابات Microsoft التابعة التي تعرف المستخدم على أنه أقل من 13 عاما أو كما هو محدد بموجب القوانين المحلية تسجيل الدخول للوصول إلى تجربة Bing الجديدة الكاملة.   

كما هو موضح أعلاه، بالنسبة لجميع المستخدمين، قمنا بتنفيذ ضمانات تخفف من المحتوى الذي يحتمل أن يكون ضارا. في Copilot في Bing، يتم تعيين النتائج كما هو الحال في وضع Bing SafeSearch الصارم، الذي يحتوي على أعلى مستوى من حماية السلامة في بحث Bing الرئيسي، وبالتالي منع المستخدمين، بما في ذلك المستخدمين المراهقين، من التعرض للمحتوى الذي يحتمل أن يكون ضارا. بالإضافة إلى المعلومات التي قدمناها في هذا المستند وفي الأسئلة المتداولة حول ميزات الدردشة، يتوفر هنا مزيد من المعلومات حول كيفية عمل Copilot في Bing لتجنب الاستجابة بمحتوى مسيء غير متوقع في نتائج البحث.  

التزمت Microsoft بعدم تقديم إعلانات مخصصة استنادا إلى السلوك عبر الإنترنت للأطفال الذين يحدد تاريخ ميلادهم في حساب Microsoft الخاص بهم على أنه أقل من 18 عاما من العمر. ستمتد هذه الحماية المهمة إلى الإعلانات في Copilot في ميزات Bing. قد يرى المستخدمون إعلانات سياقية استنادا إلى الاستعلام أو المطالبة المستخدمة للتفاعل مع Bing.  

لفتح الإمكانات التحويلية الذكاء الاصطناعي التوليدية، يجب علينا بناء الثقة في التكنولوجيا من خلال تمكين الأفراد من فهم كيفية استخدام بياناتهم وتزويدهم بخيارات وضوابط ذات مغزى على بياناتهم. تم تصميم Copilot في Bing لتحديد أولويات الوكالة البشرية، من خلال توفير معلومات حول كيفية عمل المنتج بالإضافة إلى قيوده، ومن خلال توسيع خياراتنا وضوابطنا القوية للعملاء إلى Copilot في ميزات Bing.   

يوفر بيان خصوصية Microsoft معلومات حول ممارسات الخصوصية الشفافة لحماية عملائنا، ويحدد معلومات حول عناصر التحكم التي تمنح المستخدمين لدينا القدرة على عرض بياناتهم الشخصية وإدارتها. للمساعدة في ضمان حصول المستخدمين على المعلومات التي يحتاجونها عند تفاعلهم مع ميزات المحادثة الجديدة في Bing، تقوم عمليات الكشف داخل المنتج بإعلام المستخدمين بأنهم يتعاملون مع منتج الذكاء الاصطناعي، ونوفر ارتباطات لمزيد من الأسئلة المتداولة والتفسيرات حول كيفية عمل هذه الميزات. ستستمر Microsoft في الاستماع إلى ملاحظات المستخدم وستضيف مزيدا من التفاصيل حول ميزات المحادثة في Bing حسب الاقتضاء لدعم فهم طريقة عمل المنتج.   

كما توفر Microsoft لمستخدميها أدوات قوية لممارسة حقوقهم على بياناتهم الشخصية. بالنسبة للبيانات التي يتم جمعها بواسطة Copilot في Bing، بما في ذلك من خلال استعلامات المستخدم والمطالبات، توفر لوحة معلومات خصوصية Microsoft للمستخدمين المصادق عليهم (تسجيل الدخول) أدوات لممارسة حقوق موضوع البيانات الخاصة بهم، بما في ذلك من خلال تزويد المستخدمين بالقدرة على عرض محفوظات المحادثات المخزنة وتصديرها وحذفها. تستمر Microsoft في تلقي الملاحظات حول كيفية إدارتها لتجربة Bing الجديدة، بما في ذلك من خلال استخدام تجارب إدارة البيانات في السياق.   

كما يكرم Copilot في Bing الطلبات بموجب الحق الأوروبي في النسيان، بعد العملية التي طورتها Microsoft وصقلتها لوظائف البحث التقليدية في Bing. يمكن لجميع المستخدمين الإبلاغ عن المخاوف المتعلقة بالمحتوى والردود التي تم إنشاؤها هنا، ويمكن للمستخدمين الأوروبيين استخدام هذا النموذج لإرسال طلبات لحظر نتائج البحث في أوروبا تحت الحق في النسيان.   

ستحترم Copilot في Bing خيارات خصوصية المستخدمين، بما في ذلك تلك التي تم إجراؤها مسبقا في Bing، مثل الموافقة على جمع البيانات واستخدامها المطلوب من خلال شعارات ملفات تعريف الارتباط وعناصر التحكم المتوفرة في لوحة معلومات خصوصية Microsoft. للمساعدة في تمكين استقلالية المستخدم والوكالة في اتخاذ قرارات مستنيرة، استخدمنا عملية المراجعة الداخلية لدينا لفحص كيفية تقديم الخيارات للمستخدمين بعناية. 

بالإضافة إلى عناصر التحكم المتوفرة عبر لوحة معلومات خصوصية Microsoft، والتي تسمح للمستخدمين بعرض محفوظات البحث وتصديرها وحذفها، بما في ذلك مكونات محفوظات الدردشة الخاصة بهم، يتمتع المستخدمون المصادق عليهم الذين قاموا بتمكين ميزة محفوظات الدردشة في المنتج بالقدرة على عرض محفوظات الدردشة والوصول إليها وتنزيلها من خلال عناصر التحكم داخل المنتج. قد يقوم المستخدمون بمسح دردشات معينة من محفوظات الدردشة أو إيقاف تشغيل وظيفة محفوظات الدردشة بالكامل في أي وقت من خلال زيارة صفحة إعدادات Bing. قد يختار المستخدمون أيضا ما إذا كانوا سيسمحون للتخصيص بالوصول إلى تجربة أكثر تخصيصا مع إجابات مخصصة. يمكن للمستخدمين الاشتراك والاشتراك من التخصيص في أي وقت في إعدادات الدردشة في صفحة إعدادات Bing.  يؤدي مسح دردشات معينة من محفوظات الدردشة إلى منع استخدامها للتخصيص.  
 
يتم توفير مزيد من المعلومات حول محفوظات الدردشة والتخصيص للمستخدمين في Copilot في الأسئلة المتداولة حول Bing. 

تم بناء Copilot في Bing مع مراعاة الخصوصية، بحيث يتم جمع البيانات الشخصية واستخدامها فقط حسب الحاجة ويتم الاحتفاظ بها لم تعد ضرورية. كما ذكر أعلاه، ينشر البحث المرئي في ميزة Copilot في Bing آلية تمويه الوجوه في الصور في وقت التحميل من قبل المستخدمين، بحيث لا تتم معالجة صور الوجه أو تخزينها بشكل أكبر. يتوفر المزيد من المعلومات حول البيانات الشخصية التي يجمعها Bing وكيفية استخدامها وكيفية تخزينها وحذفها في بيان خصوصية Microsoft، والذي يوفر أيضا معلومات حول ميزات الدردشة الجديدة في Bing.   

لدى Copilot في Bing نهج استبقاء البيانات وحذفها للمساعدة في ضمان الاحتفاظ بالبيانات الشخصية التي تم جمعها من خلال ميزات الدردشة في Bing فقط طالما لزم الأمر.   

سنواصل تعلم وتطوير نهجنا في توفير Copilot في Bing، ونحن نفعل ذلك سنواصل العمل عبر التخصصات لمواءمة ابتكارنا الذكاء الاصطناعي مع القيم الإنسانية والحقوق الأساسية، بما في ذلك حماية المستخدمين الشباب والخصوصية.   

Copilot مع حماية البيانات التجارية 

تم إصدار Copilot مع حماية البيانات التجارية، المعروفة سابقا باسم Bing Chat Enterprise ("BCE")، من قبل Microsoft في معاينة عامة مجانية في يوليو 2023 كوظيفة إضافية مجانية لبعض عملاء M365. Copilot مع حماية البيانات التجارية هي تجربة بحث ويب محسنة الذكاء الاصطناعي للمستخدمين النهائيين للمؤسسة. 

كما هو الحال مع Copilot في Bing، عندما يدخل Copilot مع مستخدم نهاية لحماية البيانات التجارية مطالبة في الواجهة، يتم إرسال المطالبة والمحادثة الفورية ونتائج البحث العليا و metaprompt كمدخلات إلى LLM. ينشئ النموذج استجابة باستخدام محفوظات المحادثات الفورية والمطالبة لوضع الطلب في سياقه، و metaprompt لمحاذاة الاستجابات مع مبادئ Microsoft الذكاء الاصطناعي وتوقعات المستخدم، ونتائج البحث للاستجابات الأساسية في محتوى موجود وعالي المستوى من الويب. يعمل هذا بنفس الطريقة التي يعمل بها Copilot في Bing كما هو موضح أعلاه في هذا المستند، باستثناء أن Copilot مع حماية البيانات التجارية يعتمد فقط على محفوظات المحادثات الفورية (وليس محفوظات المحادثات الأخيرة) بسبب عدم كون محفوظات الدردشة المخزنة ميزة مدعومة حاليا. يتوفر المصمم والبحث المرئي الآن في هذا الإصدار. 

مثل التقنيات التحويلية الأخرى، فإن الاستفادة من فوائد الذكاء الاصطناعي ليست خالية من المخاطر، وتم تصميم جزء أساسي من برنامج الذكاء الاصطناعي المسؤول من Microsoft لتحديد المخاطر المحتملة، وقياس ميلها إلى الحدوث، وبناء عوامل تخفيف المخاطر لمعالجتها. مرة أخرى، ينطبق أيضا الوصف أعلاه لجهود Microsoft لتحديد المخاطر المحتملة على Copilot في Bing وقياسها والتخفيف من حدتها على هذا الإصدار، مع بعض التوضيحات حول عوامل التخفيف الموضحة أدناه: 

إصدار مرحلي، تقييم مستمر. كما هو الحال مع Copilot Bing، بالنسبة إلى Copilot مع حماية البيانات التجارية، اتخذنا أيضا نهجا متزايدا للإصدار. في 18 يوليو 2023، أصبحت Copilot مع حماية البيانات التجارية متاحة كمعاينة مجانية لعملاء المؤسسات المؤهلين الذين لديهم حسابات M365 محددة لتشغيلها للمستخدمين النهائيين لمؤسستهم. بعد ثلاثين (30) يوما من إخطار عملاء المؤسسات المؤهلين، أصبح Copilot مع حماية البيانات التجارية "افتراضيا" لنفس العملاء. أصبح Copilot مع حماية البيانات التجارية متاحا أيضا لحسابات M365 لهيئة التدريس التعليمية المحددة. أصبح Copilot مع حماية البيانات التجارية متاحا بشكل عام لبعض عملاء المؤسسات في 1 ديسمبر 2023. في المستقبل، نخطط لتوسيع الوصول إلى Copilot مع حماية البيانات التجارية لمزيد من مستخدمي معرف Microsoft Entra.

شروط الاستخدام ومدونة قواعد السلوك. يجب على المستخدمين النهائيين ل Copilot الذين لديهم حماية البيانات التجارية الالتزام بشروط استخدام المستخدم النهائي. تعلم شروط الاستخدام هذه المستخدمين النهائيين باستخدامات مسموح بها وغير مسموح بها ونتائج انتهاك المصطلحات.  

العمليات والاستجابة السريعة. نستخدم أيضا Copilot في عمليات Bing التشغيلية والمراقبة المستمرة لمعالجة عندما يتلقى Copilot مع حماية البيانات التجارية إشارات، أو يتلقى تقريرا، يشير إلى إساءة استخدام شروط استخدام المستخدم النهائي أو انتهاكاتها المحتملة. 

الملاحظات والمراقبة والإشراف. يستخدم Copilot مع حماية البيانات التجارية نفس الأدوات مثل Copilot في Bing للمستخدمين لإرسال الملاحظات والإبلاغ عن المخاوف، والتي تتم مراجعتها من قبل فرق عمليات Microsoft. كما توسعت Copilot في العمليات التشغيلية ل Bing لاستيعاب الميزات داخل Copilot مع تجارب حماية البيانات التجارية، على سبيل المثال، تحديث صفحة الإبلاغ عن القلق لتضمين الأنواع الجديدة من المحتوى التي ينشئها المستخدمون بمساعدة النموذج.  

للمساعدة في ضمان حصول المستخدمين النهائيين على المعلومات التي يحتاجونها عند تفاعلهم مع Copilot مع حماية البيانات التجارية، تتوفر وثائق المنتج في أسفل هذا المستند، بما في ذلك صفحات الأسئلة المتداولة ومعرفة المزيد. 

تتم معالجة المطالبات والاستجابات التي ينشئها المستخدمون النهائيون في Copilot مع حماية البيانات التجارية وتخزينها وفقا لمعايير معالجة بيانات المؤسسة. يتوفر Copilot مع عرض حماية البيانات التجارية حاليا فقط لعملاء المؤسسات ومستخدميهم البالغين المصادق عليهم، وبالتالي لا نتوقع أن يكون الأطفال أو الشباب مستخدمين النهائيين ل Copilot مع حماية البيانات التجارية في هذا الوقت. بالإضافة إلى ذلك، لا توفر Copilot مع حماية البيانات التجارية أي إعلانات مستهدفة سلوكيا للمستخدمين النهائيين. بدلا من ذلك، فإن أي إعلانات يتم عرضها هي إعلانات ذات صلة بالسياق فقط.  

تعرّف على المزيد

حول هذا المستند  

© 2023 Microsoft. جميع الحقوق محفوظة. يتم توفير هذا المستند "كما هو" ولأغراض إعلامية فقط. قد تتغير المعلومات وطرق العرض المعبر عنها في هذا المستند، بما في ذلك عنوان URL ومراجع أخرى لموقع ويب على الإنترنت، دون إشعار. أنت تتحمل خطر استخدامه. بعض الأمثلة للتوضيح فقط وهي وهمية. لا يوجد اقتران حقيقي مقصود أو مستنتج.  

هل تحتاج إلى مزيد من المساعدة؟

الخروج من الخيارات إضافية؟

استكشف مزايا الاشتراك، واستعرض الدورات التدريبية، وتعرف على كيفية تأمين جهازك، والمزيد.

تساعدك المجتمعات على طرح الأسئلة والإجابة عليها، وتقديم الملاحظات، وسماعها من الخبراء ذوي الاطلاع الواسع.

هل كانت المعلومات مفيدة؟

ما مدى رضاك عن جودة اللغة؟
ما الذي أثّر في تجربتك؟
بالضغط على "إرسال"، سيتم استخدام ملاحظاتك لتحسين منتجات Microsoft وخدماتها. سيتمكن مسؤول تكنولوجيا المعلومات لديك من جمع هذه البيانات. بيان الخصوصية.

نشكرك على ملاحظاتك!

×