تاريخ التحديث الأخير: أبريل 2025

ما هي ملاحظة الشفافية؟

لا يشمل نظام الذكاء الاصطناعي التكنولوجيا فحسب، بل يشمل أيضا الأشخاص الذين سيستخدمونها، والأشخاص الذين سيتأثرون بها، والبيئة التي يتم نشرها فيها. تهدف ملاحظات الشفافية من Microsoft إلى مساعدتك على فهم كيفية عمل تقنية الذكاء الاصطناعي وراء Copilot، والخيارات التي اتخذناها والتي تؤثر على أداء النظام وسلوكه، وأهمية التفكير في النظام بأكمله، بحيث يمكن لمستخدمي Copilot التحكم في تجاربهم الخاصة وفهم الخطوات التي نتخذها لتوفير منتج آمن وآمن.

تعد ملاحظات الشفافية من Microsoft جزءا من جهد أوسع في Microsoft لوضع مبادئ الذكاء الاصطناعي موضع التنفيذ. لمعرفة المزيد، راجع مبادئ Microsoft الذكاء الاصطناعي

أساسيات Microsoft Copilot

مقدمة

Copilot هي تجربة مدعومة الذكاء الاصطناعي من شأنها أن تساعد في تزويد المستخدمين بالمعلومات التي يبحثون عنها أثناء الاستعداد لدعم المستخدمين في الإجابة على مجموعة واسعة من الأسئلة بغض النظر عن الموقف أو الموضوع. يتجاوز Copilot المحدث الإجابة على استعلامات استرداد المعلومات الأساسية ويركز على إنشاء محتوى لتقديم دعم استباقي للمستخدمين عند إكمال المهام. لدينا فهم متزايد لكيفية الذكاء الاصطناعي لديها القدرة على مساعدة الناس على التعلم والاكتشاف والابداع أكثر، ما يتطلب منا بناء نوع مختلف من المنتجات. تسعى تجربة Copilot الجديدة إلى أن تصبح نوعا جديدا من الخبرة المفتوحة والديناميكية لتلبية احتياجات المستخدم بشكل أفضل بطريقة أكثر سهولة.

في Microsoft، نأخذ التزامنا تجاه الذكاء الاصطناعي المسؤول على محمل الجد. تم تطوير تجربة Copilot المحدثة بما يتماشى مع مبادئ microsoft الذكاء الاصطناعي، الذكاء الاصطناعي المسؤول من Microsoft Standard، وشراكة مع خبراء الذكاء الاصطناعي المسؤولين في جميع أنحاء الشركة، بما في ذلك مكتب الذكاء الاصطناعي المسؤول من Microsoft، وفرق الهندسة لدينا، وMicrosoft Research، و Aether. يمكنك معرفة المزيد حول الذكاء الاصطناعي المسؤولة في Microsoft هنا.  

في هذه الوثيقة، نصف نهجنا تجاه الذكاء الاصطناعي المسؤولة عن Copilot. قبل الإصدار، استفدنا من أحدث أساليب Microsoft لتعيين المخاطر المحتملة وإساءة استخدام النظام وقياسها وإدارتها وتأمين فوائده للمستخدمين. ومع استمرارنا في تطوير Copilot، واصلنا أيضا تعلم وتحسين جهودنا الذكاء الاصطناعي المسؤولة. سيتم تحديث هذا المستند بشكل دوري لتوصيل عملياتنا وأساليبنا المتطورة.  

المصطلحات الرئيسية

المصنفات    نماذج التعلم الآلي التي تساعد على فرز البيانات إلى فئات أو فئات معلومات مصنفة. في تجربة Copilot المحدثة، تتمثل إحدى الطرق التي نستخدم بها المصنفات في المساعدة في اكتشاف المحتوى الذي يحتمل أن يكون ضارا يقدمه المستخدمون أو تم إنشاؤه بواسطة النظام للتخفيف من إنشاء هذا المحتوى وإساءة استخدام النظام أو إساءة استخدامه. 

اسس    بالنسبة لبعض المحادثات التي يبحث فيها المستخدمون عن المعلومات، يتم تثبيت Copilot في نتائج البحث على الويب. وهذا يعني أن Copilot تركز استجابتها على محتوى رفيع المستوى من الويب وتوفر اقتباسات ذات ارتباط تشعبي بعد استجابات النص التي تم إنشاؤها. لاحظ أنه في هذا الوقت، لن تؤدي مطالبات المستخدم في الوضع الصوتي إلى تشغيل بحث على الويب، وبالتالي، لن تتضمن أي استجابات اقتباسات.

نماذج اللغات الكبيرة (LLMs)    نماذج اللغات الكبيرة (LLMs) في هذا السياق هي نماذج الذكاء الاصطناعي يتم تدريبها على كميات كبيرة من البيانات النصية للتنبؤ بالكلمات بالتسلسلات. يمكن ل LLMs تنفيذ مجموعة متنوعة من المهام، مثل إنشاء النص والتلخيص والترجمة والتصنيف والمزيد.

التخفيف    طريقة أو مجموعة من الأساليب المصممة لتقليل المخاطر المحتملة التي قد تنشأ من استخدام ميزات الذكاء الاصطناعي داخل Copilot.

نماذج متعددة الوسائط (MMMs)    النماذج متعددة الوسائط (MMMs) هي نماذج الذكاء الاصطناعي يتم تدريبها على أنواع مختلفة من البيانات، مثل النص أو الصور أو الصوت. يمكن لهذه النماذج تنفيذ مجموعة متنوعة من المهام، مثل كتابة النص، ووصف الصور، والتعرف على الكلام، والعثور على المعلومات عبر أنواع مختلفة من البيانات.

الطلبات    المدخلات في شكل نص وصور و/أو صوت يرسله المستخدم إلى Copilot للتفاعل مع ميزات الذكاء الاصطناعي داخل Copilot.

فريق أحمر    التقنيات التي يستخدمها الخبراء لتقييم قيود النظام ونقاط ضعفه واختبار فعالية عوامل التخفيف المخطط لها. يشمل اختبار الفريق الأحمر المختبرين الذين يعتمدون الشخصيات الحميدة والخصومية لتحديد المخاطر المحتملة، ويميزون عن القياس المنهجي للمخاطر.

الاستجابات    النص أو الصور أو الصوت الذي يقوم Copilot بإخراجه استجابة لمطالبة أو كجزء من ذهابا وإيابا مع المستخدم. تتضمن مرادفات "الاستجابة" "إكمال" و"إنشاء" و"إجابة".

نماذج اللغات الصغيرة (SLMs)    نماذج اللغات الصغيرة (SLMs) في هذا السياق هي نماذج الذكاء الاصطناعي يتم تدريبها على كميات أصغر وأكثر تركيزا من البيانات مقارنة بنماذج اللغات الكبيرة. على الرغم من حجمها الأصغر، يمكن لأجهزة SLMs تنفيذ مجموعة متنوعة من المهام، مثل إنشاء النص والتلخيص والترجمة والتصنيف. على الرغم من أنها قد لا تتطابق مع القدرات الواسعة ل LLMs، فإن SLMs غالبا ما تكون أكثر كفاءة في استخدام الموارد ويمكن أن تكون فعالة للغاية للتطبيقات المحددة والمستهدفة. 

رسالة النظام    رسالة النظام (يشار إليها أحيانا باسم "metaprompt") هي برنامج يعمل على توجيه سلوك النظام. تساعد أجزاء من رسالة النظام في محاذاة سلوك النظام مع مبادئ Microsoft الذكاء الاصطناعي وتوقعات المستخدم. على سبيل المثال، قد تتضمن رسالة النظام سطرا مثل "عدم تقديم معلومات أو إنشاء محتوى قد يتسبب في ضرر جسدي أو عاطفي أو مالي". 

الإمكانات

سلوك النظام

مع Copilot، قمنا بتطوير نهج مبتكر لتقديم تجربة الذكاء الاصطناعي أكثر تخصيصا للمستخدمين للحصول على تجربة جذابة يمكن أن تساعد المستخدمين في مجموعة متنوعة من المهام. يستفيد هذا النهج المبتكر من مجموعة متنوعة من التقنيات المتقدمة، مثل اللغة والنماذج متعددة الوسائط من Microsoft وOpenAI ومطوري النماذج الآخرين. لقد عملنا على تنفيذ تقنيات السلامة للنماذج الأساسية لتجربة Copilot الجديدة قبل الإصدار العام لتطوير مجموعة مخصصة من القدرات والسلوكيات التي توفر تجربة Copilot محسنة. في Copilot المحدث، يمكن للمستخدمين إرسال مطالبات في نص أو صوت اللغة الطبيعية. يتم تقديم الاستجابات للمستخدمين بتنسيقات مختلفة متعددة، مثل استجابات الدردشة في شكل نص (مع ارتباطات تقليدية لمحتوى الويب حسب الضرورة) والصور (إذا تم تقديم طلب صورة كجزء من المطالبة). إذا أرسل المستخدمون مطالبات بصوت اللغة الطبيعية داخل وضع صوت Copilot، فسيتلقىون استجابات صوتية. 

عندما يدخل مستخدم مطالبة في Copilot، يتم إرسال المطالبة ومحفوظات المحادثات ورسالة النظام من خلال العديد من مصنفات الإدخال للمساعدة في تصفية المحتوى الضار أو غير المناسب. هذه خطوة أولى حاسمة للمساعدة في تحسين أداء النموذج والتخفيف من المواقف التي قد يحاول فيها المستخدمون مطالبة النموذج بطريقة قد تكون غير آمنة. بمجرد مرور المطالبة عبر مصنفات الإدخال، يتم إرسالها إلى SLM لتحديد ما إذا كان الطلب يتطلب بيانات أساسية من الويب ونموذج اللغة الذي يجب أن يستجيب للطلب. تنشئ جميع النماذج استجابة باستخدام مطالبة المستخدم ومحفوظات المحادثات الأخيرة لوضع الطلب في سياقه، ورسالة النظام لمحاذاة الاستجابات مع مبادئ Microsoft الذكاء الاصطناعي وتوقعات المستخدم، وإذا كان ذلك مناسبا، قم بمحاذاة الاستجابات مع نتائج البحث مع الاستجابات الأساسية في المحتوى الحالي عالي المستوى من الويب.  

يتم تقديم الاستجابات للمستخدمين بتنسيقات مختلفة متعددة، مثل استجابات الدردشة في شكل نص، والارتباطات التقليدية لمحتوى الويب والصور والاستجابات الصوتية. عندما يتم توفير الاستجابات في شكل نص - وتكون الاستجابات قائمة على بيانات من الويب - يحتوي الإخراج على اقتباسات مرتبطة تشعبية مدرجة أسفل النص حتى يتمكن المستخدمون من الوصول إلى موقع (مواقع) الويب التي تم استخدامها لاستخراج الاستجابة ومعرفة المزيد حول الموضوع من هناك. 

يساعد Copilot أيضا المستخدمين على إنشاء قصص وقصائد وكلمات أغنية وصور جديدة. عندما يكتشف Copilot نية المستخدم لإنشاء محتوى إبداعي (مثل مطالبة المستخدم التي تبدأ ب "اكتب لي ...")، سيقوم النظام، في معظم الحالات، بإنشاء محتوى يستجيب لمطالبة المستخدم. وبالمثل، عندما يكتشف Copilot نية المستخدم لإنشاء صورة (مثل مطالبة المستخدم التي تبدأ ب "ارسم لي ...")، سيقوم Copilot، في معظم الحالات، بإنشاء صورة تستجيب لمطالبة المستخدم. عندما يكتشف Copilot نية المستخدم لتعديل صورة تم تحميلها (مثل مطالبة المستخدم التي تبدأ ب "إضافة ...")، سيقوم Copilot، في معظم الحالات، بتعديل صورة تستجيب لمطالبة المستخدم. قد لا تستجيب Copilot بمحتوى إبداعي عندما تحتوي مطالبة المستخدم على مصطلحات معينة قد تؤدي إلى محتوى إشكالي.

لدى المستخدمين الذين لديهم حسابات Microsoft (MSA) الآن أيضا خيار الاشتراك في Copilot Pro، ما يوفر تجربة محسنة، بما في ذلك الأداء المتسارع، واستخدام قدرات Copilot Voice لفترات زمنية أطول، وفي بعض الحالات، الوصول إلى ميزات تجريبية جديدة. Copilot Pro متاح حاليا في عدد محدود من البلدان، ونخطط لجعل Copilot Pro متاحة في المزيد من الأسواق قريبا.

سلوك الأمان المقصود

هدفنا من Copilot هو أن تكون مفيدة للمستخدمين. من خلال الاستفادة من أفضل الممارسات من منتجات وخدمات Microsoft الأخرى الذكاء الاصطناعي التوليدية، نهدف إلى الحد من Copilot من إنشاء محتوى إشكالي وزيادة احتمالية تجربة مستخدم آمنة وإيجابية. بينما اتخذنا خطوات للتخفيف من المخاطر، فإن نماذج الذكاء الاصطناعي التوليدية مثل تلك الموجودة خلف Copilot هي نماذج استباقية ويمكن أن ترتكب أخطاء، ما يعني أن التخفيف من المخاطر قد يفشل أحيانا في حظر مطالبات المستخدم الضارة أو الاستجابات التي تم إنشاؤها الذكاء الاصطناعي. إذا واجهت محتوى ضارا أو غير متوقع أثناء استخدام Copilot، فأعلمنا من خلال تقديم الملاحظات حتى نتمكن من الاستمرار في تحسين التجربة.

حالات الاستخدام

الاستخدامات المقصودة

تهدف Copilot إلى دعم المستخدمين في الإجابة على مجموعة واسعة من الأسئلة بغض النظر عن الموقف أو الموضوع. يمكن للمستخدمين التفاعل مع Copilot باستخدام المدخلات النصية والصورية والصوتية حيث تهدف التفاعلات إلى الشعور وكأنها محادثات طبيعية مع نظام الذكاء الاصطناعي. بالإضافة إلى ذلك، إذا كان المستخدمون يتفاعلون مع Copilot عبر نص للبحث عن معلومات محددة حول الموضوعات التي قد تتطلب فيها Copilot مزيدا من المعلومات لإنتاج إجابة أكثر دقة، فإن التجربة تهدف إلى ربط المستخدمين بنتائج البحث ذات الصلة، ومراجعة النتائج من جميع أنحاء الويب، وتلخيص المعلومات التي يبحث عنها المستخدمون. في Copilot، يمكن للمستخدمين: 

  • تلخيص المعلومات في الوقت الحقيقي عند الدردشة عبر النص.    عندما يتفاعل المستخدمون مع Copilot عبر النص، سيقوم النظام بإجراء عمليات بحث على الويب إذا كان بحاجة إلى مزيد من المعلومات وسيستخدم أفضل نتائج البحث على الويب لإنشاء ملخص للمعلومات لتقديمها للمستخدمين. تتضمن هذه الملخصات اقتباسات لصفحات الويب لمساعدة المستخدمين على رؤية مصادر نتائج البحث والوصول إليها بسهولة مما ساعد على تلخيص Copilot. يمكن للمستخدمين النقر فوق هذه الارتباطات للانتقال مباشرة إلى المصدر إذا كانوا يريدون معرفة المزيد.

  • الدردشة مع نظام الذكاء الاصطناعي باستخدام النص.    يمكن للمستخدمين الدردشة مع Copilot عبر النص وطرح أسئلة المتابعة للعثور على معلومات جديدة وتلقي الدعم عبر مجموعة واسعة من الموضوعات.

  • واجهة مع الذكاء الاصطناعي باستخدام الصوت.    لا يمكن أن يتلقى Copilot إدخال الصوت فحسب، بل ينتج أيضا إخراجا صوتيا في أحد الأصوات الأربعة التي حددها المستخدمون. تمكن قدرات الصوت إلى الصوت المستخدمين من التفاعل مع Copilot بطريقة أكثر طبيعية وسلاسة.

  • تلقي محتوى أخبار قابل للهضم.    يمكن للمستخدمين استخدام Copilot لتلقي ملخص للأخبار والطقس والتحديثات الأخرى استنادا إلى مجالات مواضيع محددة عبر ميزة Copilot Daily والاستماع إلى هذه الإحاطات بتنسيق يشبه بودكاست. ستسحب هذه الميزة المحتوى من المصادر المعتمدة التي لديها اتفاقيات مع Microsoft.

  • احصل على المساعدة في إنشاء أفكار جديدة.    في كل مرة يتفاعل فيها المستخدمون مع تجربة Copilot، سيرون مجموعة من البطاقات التي يمكنهم النقر فوقها لبدء الدردشة مع Copilot حول مواضيع مفيدة ومثيرة للاهتمام. إذا تفاعل المستخدمون مع خدمات مستهلكي Microsoft الأخرى، تخصيص البطاقات، بما يتماشى مع نهج الخصوصية الخاصة بنا. مع مرور الوقت، قد يتم تخصيص البطاقات في Copilot استنادا إلى محفوظات دردشة المستخدم. يمكن للمستخدمين إلغاء الاشتراك في التخصيص في أي وقت في الإعدادات، ولا نزال نستكشف خيارات التخصيص في وقت لاحق للمستخدمين في المنطقة الاقتصادية الأوروبية (المنطقة الاقتصادية الأوروبية) والمملكة المتحدة.

  • إنشاء محتوى إبداعي.    عند الدردشة مع Copilot، يمكن للمستخدمين إنشاء قصائد وقصص وصور ومحتوى آخر بمساعدة تجربة Copilot. يمكن ل Copilot أيضا تحرير الصور التي تم تحميلها من قبل المستخدمين إذا طلبوا ذلك.

  • تنفيذ المهام على Android.يمكن للمستخدمين التفاعل مع Copilot من خلال منصة Android عبر الصوت لتنفيذ مهام معينة. هذه المهام هي تعيين المؤقتات والتنبيهات، وإجراء المكالمات الهاتفية، وإرسال رسائل SMS، وترتيب Uber. يجب على المستخدمين تأكيد المكالمة الهاتفية ورسالة SMS وترتيب Uber قبل اكتمال المهام.

  • المساعدة في مهام البحث.  يمكن ل Copilot تنفيذ مهام بحثية من خلال تصفح الموارد المتعمقة، وتقديم تفاصيل مفصلة عن الموضوعات، والارتباط بالمصادر لمساعدة المستخدمين على تجاوز الإجابات السريعة للاستعلامات الأكثر تعقيدا.

الاعتبارات عند اختيار حالات الاستخدام الأخرى

نحن نشجع المستخدمين على مراجعة جميع المحتويات قبل اتخاذ القرارات أو التصرف بناء على استجابات Copilot لأن الذكاء الاصطناعي يمكن أن يرتكبوا أخطاء. بالإضافة إلى ذلك، هناك بعض السيناريوهات التي نوصي بتجنبها أو التي تتعارض مع شروط الاستخدام الخاصة بنا. على سبيل المثال، لا تسمح Microsoft باستخدام Copilot فيما يتعلق بالأنشطة غير القانونية أو لأي غرض يهدف إلى الترويج للنشاط غير القانوني.  

القيود

قد تتضمن النماذج اللغوية والصورية والصوتية التي تستند إليها تجربة Copilot بيانات تدريب يمكن أن تعكس التحيزات المجتمعية، مما قد يؤدي بدوره إلى تصرف Copilot بطرق ينظر إليها على أنها غير عادلة أو غير موثوق بها أو مسيئة. على الرغم من تدريب النموذج المكثف وضبط السلامة، بالإضافة إلى تنفيذ ضوابط الذكاء الاصطناعي المسؤولة وأنظمة السلامة التي نضعها على بيانات التدريب ومطالبات المستخدم ومخرجات النموذج، فإن الخدمات المستندة إلى الذكاء الاصطناعي هي خدمات غير قابلة للاحتراق ومحفزة. وهذا يجعل من الصعب حظر جميع المحتويات غير المناسبة بشكل شامل، مما يؤدي إلى مخاطر تحيزات محتملة أو قوالب نمطية أو عدم وجود أساس أو أنواع أخرى من الضرر يمكن أن تظهر في المحتوى الذي تم إنشاؤه الذكاء الاصطناعي. بعض الطرق التي قد تظهر بها هذه القيود في تجربة Copilot مدرجة هنا. 

  • القوالب النمطية: من المحتمل أن تعزز تجربة كوبليوت القوالب النمطية. على سبيل المثال، عند ترجمة "هو ممرضة" و"هي طبيبة" إلى لغة لا جنس لها مثل التركية ثم العودة إلى اللغة الإنجليزية، قد ينتج عن غير قصد كوبليوت النتائج النمطية (وغير الصحيحة) من "هي ممرضة" و"هو طبيب". ومن الأمثلة الأخرى على ذلك أنه عند إنشاء صورة تستند إلى المطالبة ب "الأطفال بلا أب"، يمكن للنظام توليد صور للأطفال من عرق أو عرق واحد فقط، مما يعزز القوالب النمطية الضارة التي قد تكون موجودة في الصور المتاحة للجمهور والمستخدمة لتدريب النماذج الأساسية. قد تعزز Copilot أيضا القوالب النمطية استنادا إلى المحتويات في صورة إدخال المستخدم من خلال الاعتماد على مكونات الصورة ووضع افتراضات قد لا تكون صحيحة. لقد قمنا بتنفيذ عوامل التخفيف لتقليل مخاطر المحتوى الذي يحتوي على صور نمطية مسيئة، بما في ذلك مصنفات الإدخال والإخراج والنماذج الدقيقة ورسائل النظام.

  • التمثيل الزائد والتمثيل الناقص: من المحتمل أن تكون Copilot مجموعات من الأشخاص زائدة أو ناقصة التمثيل، أو حتى لا تمثلهم على الإطلاق، في استجاباتها. على سبيل المثال، إذا تم الكشف عن المطالبات النصية التي تحتوي على كلمة "مثلي الجنس" على أنها ضارة أو مسيئة، فقد يؤدي ذلك إلى نقص تمثيل الأجيال الشرعية حول مجتمع المثليات والمثليين ومزدوجي الميل الجنسي ومغايري الهوية الجنسية ومزدوجي الميل الجنسي ومغايري الهوية الجنسية. بالإضافة إلى تضمين مصنفات الإدخال والإخراج والنماذج الدقيقة بالإضافة إلى رسائل النظام، نستخدم الإثراء الفوري في Designer كأحد العديد من عوامل التخفيف لتقليل مخاطر المحتوى الذي يمثل مجموعات من الأشخاص بشكل زائد أو ناقص.

  • محتوى غير مناسب أو مسيء: من المحتمل أن تنتج تجربة Copilot أنواعا أخرى من المحتوى غير المناسب أو المسيئة. ومن الأمثلة على ذلك القدرة على إنشاء محتوى بطريقة واحدة (مثل الصوت) غير مناسب في سياق المطالبة به أو عند مقارنته بنفس الإخراج بطريقة مختلفة (مثل النص). وتشمل الأمثلة الأخرى الصور التي تم إنشاؤها الذكاء الاصطناعي والتي يحتمل أن تحتوي على بيانات اصطناعية ضارة مثل رموز الكراهية، والمحتوى الذي يتعلق بموضوعات متنازع عليها أو مثيرة للجدل أو مستقطبة أيديولوجيا، والمحتوى المشحون جنسيا الذي يتهرب من عوامل تصفية المحتوى ذات الصلة الجنسية. لقد وضعنا عوامل التخفيف لتقليل مخاطر الأجيال التي تحتوي على محتوى غير مناسب أو مسيئة، مثل مصنفات الإدخال والإخراج والنماذج الدقيقة ورسائل النظام.

  • موثوقية المعلومات: بينما تهدف Copilot إلى الاستجابة بمصادر موثوقة عند الضرورة، يمكن الذكاء الاصطناعي ارتكاب أخطاء. قد يولد محتوى لا معنى له أو يختلق محتوى قد يبدو معقولا ولكنه غير دقيق من الناحية الواقعية. حتى عند رسم الاستجابات من بيانات الويب عالية السلطة، قد تسيء الاستجابات تمثيل هذا المحتوى بطريقة قد لا تكون دقيقة أو موثوقة تماما. ونذكر المستخدمين من خلال واجهة المستخدم وفي وثائق مثل هذه بأن Copilot يمكن أن يرتكب أخطاء. كما نواصل تثقيف المستخدمين بشأن قيود الذكاء الاصطناعي، مثل تشجيعهم على التحقق مرة أخرى من الحقائق قبل اتخاذ القرارات أو التصرف بناء على ردود كوبليوت. عندما يتفاعل المستخدمون مع Copilot عبر النص، سيحاول وضع نفسه في بيانات ويب عالية الجودة لتقليل خطر عدم وجود أجيال.

  • أداء متعدد اللغات: قد تكون هناك اختلافات في الأداء عبر اللغات، مع أفضل أداء للغة الإنجليزية في وقت إصدار Copilot المحدث. يعد تحسين الأداء عبر اللغات مجالا استثماريا رئيسيا، وقد أدت النماذج الحديثة إلى تحسين الأداء.

  • قيود الصوت: قد تقدم نماذج الصوت قيودا أخرى. على نطاق واسع، قد تؤثر الجودة الصوتية لإدخال الكلام والضوضاء غير الكلامية والمفردات واللهجات وأخطاء الإدراج أيضا على ما إذا كان Copilot يعالج ويستجيب لإدخال الصوت للمستخدم بطريقة مرضية. علاوة على ذلك، نظرا لأن مطالبات المستخدم عند استخدام Copilot Voice لن تؤدي إلى تشغيل عمليات البحث على الويب، فقد لا يتمكن Copilot من الاستجابة للأحداث الحالية في الوضع الصوتي.

  • الاعتماد على الاتصال بالإنترنت: تعتمد تجربة Copilot المحدثة على اتصال الإنترنت للعمل. يمكن أن يكون للاضطرابات في الاتصال تأثير على توفر الخدمة وأدائها.

أداء النظام

في العديد من أنظمة الذكاء الاصطناعي، غالبا ما يتم تعريف الأداء فيما يتعلق بالدقة (أي عدد المرات التي يقدم فيها النظام الذكاء الاصطناعي تنبؤا أو إخراجا صحيحا). مع Copilot، نركز على Copilot كمساعد مدعوم من الذكاء الاصطناعي يعكس تفضيلات المستخدم. لذلك، قد ينظر مستخدمان مختلفان إلى نفس الناتج ولديهما آراء مختلفة حول مدى فائدته أو أهميته بالنسبة لوضعهما وتوقعاتهما الفريدة، مما يعني أنه يجب تحديد أداء هذه الأنظمة بمرونة أكبر. نحن نعتبر الأداء على نطاق واسع يعني أن التطبيق يعمل كما يتوقع المستخدمون.

أفضل الممارسات لتحسين أداء النظام 

التفاعل مع الواجهة باستخدام لغة المحادثة الطبيعية.    يعد التفاعل مع Copilot بطريقة مريحة للمستخدم أمرا أساسيا للحصول على نتائج أفضل من خلال التجربة. على غرار اعتماد التقنيات لمساعدة الأشخاص على التواصل بفعالية في حياتهم اليومية، قد يساعد التفاعل مع Copilot كمساعد يعمل الذكاء الاصطناعي إما من خلال النص أو الكلام المألوف للمستخدم في الحصول على نتائج أفضل.

تجربة المستخدم واعتماده.    يتطلب الاستخدام الفعال ل Copilot من المستخدمين فهم قدراته وقيوده. قد يكون هناك منحنى تعلم، وقد يرغب المستخدمون في الرجوع إلى موارد Copilot المختلفة (على سبيل المثال، هذا المستند والأسئلة المتداولة حول Copilot) للتفاعل مع الخدمة والاستفادة منها بشكل فعال.

تعيين المخاطر وقياسها وإدارتها

مثل التقنيات التحويلية الأخرى، فإن الاستفادة من فوائد الذكاء الاصطناعي ليست خالية من المخاطر، وتم تصميم جزء أساسي من برنامج الذكاء الاصطناعي المسؤول من Microsoft لتحديد المخاطر المحتملة وتعيينها، وقياس هذه المخاطر، وإدارتها من خلال بناء عوامل التخفيف من المخاطر وتحسين Copilot باستمرار بمرور الوقت. في الأقسام أدناه، نصف نهجنا التكراري لتعيين المخاطر المحتملة وقياسها وإدارتها.

الخريطة: يساعدنا التخطيط الدقيق والاختبار الخصومي قبل التوزيع، مثل الفريق الأحمر، على تعيين المخاطر المحتملة. مرت النماذج الأساسية التي تدعم تجربة Copilot باختبار الفريق الأحمر من المختبرين الذين يمثلون وجهات نظر متعددة التخصصات عبر مجالات الموضوع ذات الصلة. تم تصميم هذا الاختبار لتقييم كيفية عمل أحدث التقنيات مع وبدون أي ضمانات إضافية مطبقة عليها. الهدف من هذه التدريبات على مستوى النموذج هو إنتاج استجابات ضارة، وإيجاد السبل المحتملة لإساءة الاستخدام، وتحديد القدرات والقيود.

قبل إتاحة تجربة Copilot للجمهور في معاينة إصدار محدودة، أجرينا أيضا فريقا أحمر على مستوى التطبيق لتقييم Copilot بحثا عن أوجه القصور والثغرات الأمنية. ساعدتنا هذه العملية على فهم أفضل لكيفية استخدام النظام من قبل مجموعة واسعة من المستخدمين وساعدتنا على تحسين عوامل التخفيف.

قياس: بالإضافة إلى تقييم Copilot مقابل تقييمات السلامة الحالية لدينا، ساعدنا استخدام الفريق الأحمر الموضح أعلاه على تطوير التقييمات والمقاييس المسؤولة الذكاء الاصطناعي المقابلة للمخاطر المحتملة المحددة، مثل الهروب من السجن والمحتوى الضار والمحتوى غير الأساسي.

لقد جمعنا بيانات المحادثة التي تستهدف هذه المخاطر، باستخدام مجموعة من المشاركين البشريين ومسار إنشاء محادثة تلقائي. ثم يتم تسجيل كل تقييم إما بواسطة مجموعة من التعليقات التوضيحية البشرية المدربة أو مسار التعليق التوضيحي التلقائي. في كل مرة يتغير فيها المنتج، أو يتم تحديث عوامل التخفيف الحالية، أو تقترح عوامل تخفيف جديدة، نقوم بتحديث مسارات التقييم الخاصة بنا لتقييم أداء المنتج ومقاييس الذكاء الاصطناعي المسؤولة. مسارات سياق التقييم التلقائي هذه هي مزيج من المحادثات المجمعة مع المقيمين البشريين والمحادثات الاصطناعية التي تم إنشاؤها باستخدام LLMs التي تمت مطالبتها باختبار النهج بطريقة خصومية. يتم تسجيل كل تقييم من تقييمات السلامة هذه تلقائيا باستخدام LLMs. بالنسبة للتقييمات المطورة حديثا، يتم تسجيل كل تقييم في البداية بواسطة ملصقات بشرية تقرأ محتوى النص أو تستمع إلى إخراج الصوت، ثم يتم تحويلها إلى تقييمات تلقائية مستندة إلى LLM.

إن السلوك المقصود لنماذجنا بالاقتران مع مسارات التقييم لدينا - سواء البشرية أو الآلية - يمكننا من إجراء قياس سريع للمخاطر المحتملة على نطاق واسع. بينما نحدد المشكلات الجديدة بمرور الوقت، نواصل توسيع مجموعات القياس لتقييم المخاطر الإضافية. 

الإدارة: بينما حددنا المخاطر المحتملة وسوء الاستخدام من خلال الفريق الأحمر وقمنا بقياسها بالنهج الموضحة أعلاه، قمنا بتطوير عوامل تخفيف إضافية خاصة بتجربة Copilot. فيما يلي، نصف بعض عوامل التخفيف هذه. سنواصل مراقبة تجربة Copilot لتحسين أداء المنتج ونهج التخفيف من المخاطر لدينا. 

  • خطط الإصدار المرحلي والتقييم المستمر.    نحن ملتزمون بتعلم وتحسين نهجنا المسؤول الذكاء الاصطناعي باستمرار مع تطور تقنياتنا وسلوك المستخدم. كانت استراتيجية الإصدار التزايدي جزءا أساسيا من كيفية نقل تقنيتنا بأمان من المختبر إلى العالم، ونحن ملتزمون بعملية متعمدة ومدروسة لتأمين فوائد تجربة Copilot. نحن نقوم بإجراء تغييرات على Copilot بانتظام لتحسين أداء المنتج والتخفيفات الحالية، وتنفيذ عمليات التخفيف الجديدة استجابة لتعلمنا.

  • الاستفادة من المصنفات ورسالة النظام للتخفيف من المخاطر المحتملة أو إساءة الاستخدام.    استجابة لمطالبات المستخدم، قد تنتج LLMs محتوى إشكاليا. ناقشنا أنواع المحتوى التي نحاول تقييدها في قسمي سلوك النظام والقيود أعلاه. المصنفات ورسالة النظام مثالان على عوامل التخفيف التي تم تنفيذها في Copilot للمساعدة في تقليل مخاطر هذه الأنواع من المحتوى. تصنف المصنفات النص لوضع علامة على المحتوى الذي يحتمل أن يكون ضارا في مطالبات المستخدم أو الاستجابات التي تم إنشاؤها. كما نستخدم أفضل الممارسات الحالية للاستفادة من رسالة النظام، والتي تتضمن إعطاء إرشادات للنموذج لمواءمة سلوكه مع مبادئ Microsoft الذكاء الاصطناعي ومع توقعات المستخدم.

  • الموافقة على تحميلات صور Copilot.    في المرة الأولى التي يقوم فيها مستخدم بتحميل صورة تحتوي على وجوه إلى Copilot، سيطلب منه تقديم موافقته على تحميل بياناته البيومترية إلى Copilot. إذا لم يقم المستخدم بالاشتراك، فلن يتم إرسال الصورة إلى Copilot. يتم حذف جميع الصور، بغض النظر عما إذا كانت تحتوي على وجوه أم لا، في غضون 30 يوما بعد انتهاء المحادثة.

  • الذكاء الاصطناعي الكشف.    كما تم تصميم Copilot لإبلاغ الأشخاص بأنهم يتفاعلون مع نظام الذكاء الاصطناعي. مع تفاعل المستخدمين مع Copilot، نقدم نقاط لمس مختلفة مصممة لمساعدتهم على فهم قدرات النظام، والكشف لهم عن أن Copilot مدعوم من الذكاء الاصطناعي، والتواصل مع القيود. تم تصميم التجربة بهذه الطريقة لمساعدة المستخدمين على تحقيق أقصى استفادة من Copilot وتقليل مخاطر الإفراط في الاعتماد. تساعد عمليات الكشف أيضا المستخدمين على فهم Copilot وتفاعلاتهم معها بشكل أفضل.

  • المصدر الإعلامي.    عندما ينشئ Copilot صورة، قمنا بتمكين ميزة "بيانات اعتماد المحتوى"، والتي تستخدم أساليب التشفير لوضع علامة على المصدر أو "المصدر" لجميع الصور التي تم إنشاؤها الذكاء الاصطناعي التي تم إنشاؤها باستخدام Copilot. تستخدم هذه التكنولوجيا المعايير التي وضعها التحالف للمحتوى والمصادقة (C2PA) لإضافة طبقة إضافية من الثقة والشفافية للصور التي تم إنشاؤها الذكاء الاصطناعي.

  • الكشف التلقائي عن المحتوى.    عندما يقوم المستخدمون بتحميل الصور كجزء من موجه الدردشة الخاص بهم، ينشر Copilot أدوات للكشف عن صور الاستغلال والاعتداء الجنسيين للأطفال (CSEAI). تقوم Microsoft بإبلاغ المركز الوطني للأطفال المفقودين والمستغلين (NCMEC)، كما هو مطلوب بموجب القانون الأمريكي. عندما يقوم المستخدمون بتحميل الملفات لتحليلها أو معالجتها، ينشر Copilot المسح الآلي للكشف عن المحتوى الذي قد يؤدي إلى مخاطر أو إساءة استخدام، مثل النص الذي قد يتعلق بأنشطة غير قانونية أو تعليمات برمجية ضارة.

  • شروط الاستخدام ومدونة قواعد السلوك.    يجب على المستخدمين الالتزام بشروط الاستخدام ومدونة السلوك المعمول بها في اتفاقية خدمات Microsoft، وبيان خصوصية Microsoft، الذي يبلغهم، من بين أمور أخرى، بالاستخدامات المسموح بها وغير المسموح بها ونتائج انتهاك الشروط. توفر شروط الاستخدام أيضا إفصاحات إضافية للمستخدمين وتعمل كمرجع للمستخدمين للتعرف على Copilot. قد يتم تعليق المستخدمين الذين يرتكبون انتهاكات خطيرة أو متكررة مؤقتا أو نهائيا من الخدمة.

  • الملاحظات والمراقبة والإشراف.    تعتمد تجربة Copilot على الأدوات الموجودة التي تسمح للمستخدمين بإرسال الملاحظات، والتي تتم مراجعتها من قبل فرق عمليات Microsoft. علاوة على ذلك، سيستمر نهجنا في تعيين المخاطر وقياسها وإدارتها في التطور مع معرفة المزيد، ونجري بالفعل تحسينات استنادا إلى الملاحظات التي تم جمعها خلال فترات المعاينة.

تعرف على المزيد حول الذكاء الاصطناعي المسؤولة

تقرير شفافية الذكاء الاصطناعي المسؤول من Microsoft

مبادئ Microsoft الذكاء الاصطناعي

موارد الذكاء الاصطناعي المسؤولة من Microsoft

دورات Microsoft Azure Learning التدريبية حول الذكاء الاصطناعي المسؤول

تعرف على المزيد حول Microsoft Copilot

Microsoft Copilot الأسئلة المتداولة

حول هذا المستند

© 2024 Microsoft Corporation. كافة الحقوق محفوظة. يتم توفير هذا المستند "كما هو" ولأغراض إعلامية فقط. قد تتغير المعلومات وطرق العرض المعبر عنها في هذا المستند، بما في ذلك عنوان URL ومراجع أخرى لموقع ويب على الإنترنت، دون إشعار. أنت تتحمل خطر استخدامه. بعض الأمثلة للتوضيح فقط وهي وهمية. لا يوجد اقتران حقيقي مقصود أو مستنتج.

ولا يقصد بهذه الوثيقة أن تكون، ولا ينبغي تفسيرها على أنها تقدم، مشورة قانونية. قد يكون للولاية القضائية التي تعمل فيها متطلبات تنظيمية أو قانونية مختلفة تنطبق على نظام الذكاء الاصطناعي الخاص بك. استشر أخصائيا قانونيا إذا كنت غير متأكد من القوانين أو اللوائح التي قد تنطبق على نظامك، خاصة إذا كنت تعتقد أن هذه قد تؤثر على هذه التوصيات. يجب أن تدرك أنه لن تكون كل هذه التوصيات والموارد مناسبة لكل سيناريو، وعلى العكس من ذلك، قد تكون هذه التوصيات والموارد غير كافية لبعض السيناريوهات.

تاريخ النشر: 10/01/2024

تاريخ التحديث الأخير: 10/01/2024

هل تحتاج إلى مزيد من المساعدة؟

الخروج من الخيارات إضافية؟

استكشف مزايا الاشتراك، واستعرض الدورات التدريبية، وتعرف على كيفية تأمين جهازك، والمزيد.