ملاحظة: تشير هذه المقالة إلى مواضيع الخصوصية والسلامة المتعلقة ب Microsoft Copilot. لا ينطبق على استخدام microsoft 365 Copilot عند تسجيل الدخول باستخدام Entra ID. لمزيد من المعلومات حول هذا، اقرأ حول حماية بيانات المؤسسة.

محفوظات المحادثات

هل يتم حفظ محادثاتي Copilot ؟

بشكل افتراضي، يتم حفظ المحادثات التي تجريها مع Copilot ، ويمكنك عرض المحادثات السابقة والوصول إليها. على سبيل المثال، إذا قمت بإنشاء مسار رحلة مفصل باستخدام Copilot ، حفظ المحادثة التي أجريتها. يمكنك العودة إلى تلك المحادثة والإشارة إليها عن طريق الوصول إلى محفوظات المحادثات في تطبيق Copilot.

كيف سيتم استخدام محادثاتي Copilot ؟

تعد خصوصيتك وثقتك أمرا بالغ الأهمية بالنسبة لنا. ستستخدم Microsoft محادثاتك فقط للأغراض المحدودة الموضحة في بيان خصوصية Microsoft لاستكشاف المشكلات وإصلاحها، وتشخيص الأخطاء، ومنع إساءة الاستخدام، ومراقبة الأداء وتحليله وتحسينه، وحتى نتمكن من توفير Copilot لك.

نحن نمنحك القدرة على تحديد ما إذا كنت تريد منا استخدام محادثاتك لأغراض أخرى. يمكنك التحكم فيما إذا كان يمكننا استخدام محادثاتك من أجل:

ما المدة التي يتم فيها حفظ محادثاتي Copilot ؟

بشكل افتراضي، نقوم بتخزين المحادثات لمدة 18 شهرا. يمكنك حذف المحادثات الفردية أو محفوظات المحادثات بالكامل في أي وقت.

هل يمكنني حذف محادثاتي السابقة؟

نعم، يمكنك حذف المحادثات السابقة في Copilot.

يمكنك حذف المحادثات الفردية داخل محفوظات المحادثات أو حذف محفوظات المحادثات بالكامل.

هل ستصبح محادثاتي Copilot مرئية للمستخدمين الآخرين؟

لا، لا شيء تقوله Copilot سيعلن لن تتم مشاركة محادثاتك وبياناتك أبدا مع مستخدمين آخرين.

كيف ستتم حماية خصوصيتي عند مشاركة ملف مع Copilot ؟

إذا قمت بمشاركة ملف مع Copilot (على سبيل المثال، تحميل مستند ومطالبة Copilot بتلخيصه)، تخزين الملف بشكل آمن لمدة تصل إلى 30 يوما ثم حذفه تلقائيا. بغض النظر عن إعدادات الخصوصية الخاصة بك، لا نقوم بتدريب نماذجنا التوليدية Copilot على ملفاتك التي تم تحميلها. وسيتم التعامل مع أي محادثات لديك حول الملف تماما مثل أي محادثة أخرى، تخضع لاختياراتك حول ما إذا كنت تريد السماح بتدريب النموذج وتخصيصه، والذي يمكنك حذفه في أي وقت.

كيف يجب أن أتفاعل مع Copilot حول مواضيع سرية أو حساسة؟ 

يجب ألا تقدم أي بيانات شخصية سرية أو حساسة لا تريد أن تستخدمها Microsoft للأغراض الموضحة في هذه الأسئلة المتداولة وفي بيان خصوصية Microsoft. يتضمن ذلك البيانات التي قد تكشف، على سبيل المثال، العرق أو الدين أو التوجه الجنسي أو الحالة الصحية. 

 في أي وقت، يمكنك حذف محادثة Copilot سابقة من محفوظات المحادثات. يمكنك أيضا التحكم فيما إذا كان Copilot يستخدم محادثاتك لتدريب النموذج أو لتخصيص تجربتك

ماذا لو كانت لدي أسئلة حول الخصوصية أو حماية البيانات؟

لمعرفة المزيد حول التزام Microsoft بالخصوصية، تفضل بزيارة بيان خصوصية Microsoftوالخصوصية في Microsoft.

تخصيص الذاكرة &

كيف Copilot إضفاء طابع شخصي على تجربتي؟

إذا تم تمكين إضفاء الطابع الشخصي لك، فسيبدأ Copilot في تذكر التفاصيل الرئيسية من محادثاتك وسيستخدم هذه الذكريات في المحادثات المستقبلية لتزويدك بتجربة أكثر تخصيصا وأهمية.

ما الذي Copilot تذكره عني؟

إذا تم تمكين التخصيص، Copilot يتذكر التفاصيل الرئيسية التي تشاركها، مثل اسمك واهتماماتك وأهدافك. لا تتذكرCopilotالبيانات الديموغرافية أو غيرها من البيانات الحساسة.

يمكنك تحرير أو حذف ما يتذكره Copilot أو إيقاف تشغيل التخصيص بالكامل في أي وقت.

كيف يمكنني رؤية ما يتذكره Copilot عني أو تغييره أو حذفه؟

يمكنك التحكم في ما يتذكره (كوبليوت) عنك في أي وقت.

هل يتم تشغيل التخصيص بشكل افتراضي؟

إذا كان التخصيص متوفرا لك، فسيكون قيد التشغيل بشكل افتراضي. التخصيص غير متوفر حاليا للمستخدمين في البرازيل والصين (باستثناء هونغ كونغ) وإسرائيل ونيجيريا وكوريا الجنوبية وفيتنام، أو للمستخدمين الذين لم يسجلوا الدخول إلى Copilot عبر حساب Microsoft الخاص بهم أو مصادقة جهة خارجية أخرى.

عند البدء في استخدام Copilot سترى إشعارا في بداية المحادثات القليلة الأولى، وبعد ذلك بشكل دوري، إذا تم تمكين التخصيص لك. للتحقق من إعدادات التخصيص أو تغييرها، انقر فوق الارتباط الموجود في هذا الإشعار لإلغاء الاشتراك، أو تعطيل التخصيص في إعدادات Copilot.

كيف يمكنني إيقاف تشغيل التخصيص؟

يمكنك إيقاف تشغيل التخصيص في أي وقت. اقرأ عن كيفية التحكم في التخصيص في Copilot. 

يرجى ملاحظة أن هذه الخيارات متاحة فقط للمستخدمين الذين سجلوا الدخول، حيث تم تعطيل التخصيص للمستخدمين غير المصادق عليهم. 

إذا أوقفت تشغيل التخصيص، فسينسي Copilot ذكرياته عن محادثاتك. لا يزال بإمكانك عرض محادثاتك السابقة؛ ومع ذلك، لن يتم تخصيص تجربتك المستقبلية Copilot. إذا قمت لاحقا بتشغيل التخصيص مرة أخرى، فستبدأ Copilot في تذكر التفاصيل التي شاركتها معها وستبدأ في تخصيص تجربتك مرة أخرى. 

هل يتحكم إعداد تخصيص Copilot في الإعلانات المخصصة؟

لا يتحكم إعداد التخصيص في Copilot في ما إذا كنت تتلقى إعلانات مخصصة، وهو خيار منفصل يمكنك اتخاذه. يمكنك تغيير إعداد الإعلانات المخصصة، الذي ينطبق على Copilot وخدمات Microsoft الأخرى القابلة للتطبيق، في أي وقت.

في بعض البلدان، قد نقدم لك أيضا مطالبة تطالبك بتحديد ما إذا كنت ستتلقى إعلانات مخصصة في Copilot. إذا اخترت عدم تلقي إعلانات مخصصة، إما من خلال إعداد الإعلانات المخصصة أو المطالبة Copilot الخاصة، فلن نقدم لك إعلانات مخصصة في Copilot.

إذا سمحت لنا إعداداتك بتقديم إعلانات مخصصة في Copilot ، وإذا تم تمكين إعداد تخصيص Copilot ، فسنستخدم محفوظات محادثاتك Copilot للمساعدة في تخصيص الإعلانات التي تتلقاها بالفعل. لاحظ أنه بغض النظر عن إعداداتك، لا تقدم Copilot إعلانات مخصصة للمستخدمين المصادق عليهم دون سن 18 عاما.

إذا قمت بإيقاف تشغيل التخصيص، فهل يؤدي ذلك إلى حذف محفوظات المحادثات؟ 

يمكنك إيقاف تشغيل التخصيص ضمن إعدادات Copilot في أي وقت. لن يؤدي إيقاف تشغيل إضفاء الطابع الشخصي إلى حذف محفوظات المحادثات، ولكن Copilot ستنسى ذكرياتها عن محادثاتك وستتوقف عن تخصيص تجربتك.

هل Copilot تخصيص التفاعلات استنادا إلى مواضيع حساسة؟

بغض النظر عن إعدادات المستخدم، تم تصميم Copilot بحيث لا يتم تخصيص التفاعلات معك أبدا استنادا إلى مواضيع حساسة معينة مثل سماتك الشخصية (مثل العمر والجنس والعرق/العرق والتوجه الجنسي) والمعلومات المتعلقة بالصحة والانتماء والتفضيلات السياسية. وهذا يحمي خصوصيتك ويمنع استخدام المعلومات الحساسة المحتملة. لدينا مقاييس لتصفية المحتوى من محادثاتك السابقة التي قد تعتبر حساسة، حتى إذا تم تشغيل التخصيص في إعداداتك.

ومع ذلك، يرجى توخي الحذر عند مشاركة المعلومات مع Copilot التي تعتبرها حساسة. في أي وقت يمكنك التحكم في ما يتذكره (كوبليوت) عنك.

كيف يعمل Copilot في Xbox؟

إذا اخترت استخدام Copilot في Xbox، فسيستخدم Copilot نشاط Xbox (على سبيل المثال، ملف التعريف الخاص بك وسجل اللعب والإنجازات) لتزويدك بتجارب مخصصة وملائمة.  يمكنك عرض ملف تعريف Xbox ونشاطه وإدارته في أي وقت عن طريق تسجيل الدخول إلى حسابك في xbox.com.

تدريب النموذج

ما هو "تدريب النموذج"؟

تشير الذكاء الاصطناعي التوليدية إلى فئة من النماذج الذكاء الاصطناعي التي تحلل البيانات وتبحث عن الأنماط وتستخدم هذه الأنماط لإنشاء إخراج جديد أو إنشائه، مثل النص والصور والفيديو والرمز والبيانات والمزيد. يعني "تدريب" نموذج الذكاء الاصطناعي توليدي تزويده بالمعلومات لمساعدته على تعلم كيفية إجراء تنبؤات أو قرارات. التدريب هو مفهوم واسع يشمل العديد من الأنشطة المختلفة لمساعدة النماذج على توفير نتائج أكثر ملاءمة.

تستخدم هذه النماذج بيانات التدريب لمعرفة العلاقات العامة باللغة، وليس لحفظ محادثات محددة. لا يقومون بتخزين بيانات التدريب الأصلية أو الوصول إليها. بدلا من ذلك، تم تصميم نماذج الذكاء الاصطناعي التوليدية لإنشاء أعمال ومحتوى تعبيري جديد.

كما نتخذ خطوات إضافية لمنع هذه النماذج من إعادة إنتاج بيانات التدريب الخاصة بها عن غير قصد، مثل إجراء الاختبار وبناء عوامل التصفية التي تفرز المواد المنشورة أو المستخدمة مسبقا.

ما هي البيانات الخارجية التي تستخدمها Microsoft للتدريب Copilot ؟

تستخدم Microsoft البيانات المتاحة للجمهور، التي يتم جمعها في الغالب من مجموعات بيانات التعلم الآلي القياسية في الصناعة وزحفات الويب، مثل محركات البحث. نحن نستبعد المصادر ذات ال paywalls أو المحتوى الذي ينتهك سياساتنا أو المواقع التي استخدمت أساليب قياسية في الصناعة لإلغاء التدريب. علاوة على ذلك، نحن لا نتدرب على البيانات من المجالات المدرجة في قائمة الأسواق سيئة السمعة للتزوير والقرصنة في مكتب الممثل التجاري للولايات المتحدة (USTR).

هل تستخدم Microsoft بياناتي لتدريب نماذج الذكاء الاصطناعي؟

باستثناء فئات معينة من المستخدمين أو المستخدمين الذين رفضوا الاشتراك، تستخدم Microsoft بيانات من Bing وMSN Copilot والتفاعلات مع الإعلانات على Microsoft للتدريب على الذكاء الاصطناعي. يتضمن ذلك بيانات البحث والأخبار غير المحددة الهوية، والتفاعلات مع الإعلانات، والمحادثات الصوتية والنصية مع Copilot. سيتم استخدام هذه البيانات لتحسين Copilot ومنتجاتنا وخدماتنا الأخرى لإنشاء تجربة مستخدم أفضل لك وللآخرين.

باستخدام بيانات المستهلك في العالم الحقيقي للمساعدة في تدريب نماذجنا الذكاء الاصطناعي التوليدية الأساسية، يمكننا تحسين Copilot وتقديم تجربة أكثر موثوقية وأهمية. كلما زاد التنوع في المحادثات التي تتعرض لها نماذجنا الذكاء الاصطناعي، زادت فهمها للغات الإقليمية المهمة والمناطق الجغرافية والمراجع الثقافية والموضوعات الأكثر شيوعا التي تهمك أنت والمستخدمين الآخرين وخدمتها.

يمكنك أيضا التحكم في ما إذا كان Copilot يستخدم محادثاتك لتدريب النموذج.

ما هي البيانات المستبعدة من تدريب النموذج؟

لا نقوم بتدريب Copilot على البيانات من الأنواع التالية من المستخدمين: 

  • المستخدمون الذين سجلوا الدخول إلى Copilot باستخدام حساب Entra ID تنظيمي. يمكنك معرفة المزيد حول Enterprise Data Protection.

  • مستخدمو Copilot داخل تطبيقات Microsoft 365 مع اشتراكات شخصية أو عائلية.

  • المستخدمون الذين لم يسجلوا الدخول إلى Copilot (إما باستخدام حساب Microsoft أو مصادقة أخرى تابعة لجهة خارجية).

  • المستخدمون دون سن 18 الذين سجلوا الدخول إلى Copilot.

  • المستخدمون الذين اختاروا الخروج من تدريب النموذج.

  • المستخدمون في البرازيل والصين (باستثناء هونغ كونغ) وإسرائيل ونيجيريا وكوريا الجنوبية وفيتنام. وهذا يعني أن Copilot ستكون متاحة في بعض هذه الأسواق، ولكن لن يتم استخدام بيانات المستخدم لتدريب النموذج الذكاء الاصطناعي التوليدي في تلك المواقع حتى إشعار آخر.

كما نحد من أنواع البيانات التي نستخدمها للتدريب. نحن لا ندرب نماذج الذكاء الاصطناعي على:

  • بيانات الحساب الشخصي مثل بيانات ملف تعريف حساب Microsoft أو محتويات البريد الإلكتروني.

  • محتويات الملفات التي تقوم بتحميلها إلى Copilot ، على الرغم من أن أي محادثات تجريها مع Copilot حول الملف ستتم معالجتها تماما مثل أي محادثة أخرى (وتخضع لاختيارك حول ما إذا كنت تريد السماح بتدريب النموذج على محادثاتك).

  • تحديد المعلومات في الصور التي تم تحميلها. إذا تم تضمين أي صور في محادثاتك Copilot ، فإننا نتخذ خطوات لإلغاء تحديدها مثل إزالة بيانات التعريف أو البيانات الشخصية الأخرى وتشويش صور الوجوه.

  • المعلومات التي قد تحدد هويتك، مثل الأسماء وأرقام الهواتف ومعرفات الجهاز أو الحساب والبيانات الشخصية الحساسة والعناوين الفعلية وعناوين البريد الإلكتروني.

كيف تحمي Microsoft بياناتي عند تدريب نماذج الذكاء الاصطناعي؟

يتم الاحتفاظ بتفاعلاتك الشخصية مع خدماتنا خاصة ولا يتم الكشف عنها دون إذنك. نقوم بإزالة المعلومات التي قد تحدد هويتك، مثل الأسماء وأرقام الهواتف ومعرفات الجهاز أو الحساب والبيانات الشخصية الحساسة والعناوين الفعلية وعناوين البريد الإلكتروني، قبل تدريب نماذج الذكاء الاصطناعي.

تظل بياناتك خاصة عند استخدام خدماتنا. سنحمي بياناتك الشخصية كما هو موضح في بيان خصوصية Microsoft وتوافقا مع قوانين الخصوصية في جميع أنحاء العالم.

كيف يمكنني التحكم فيما إذا كانت بياناتي تستخدم لتدريب النموذج؟

إذا قمت بتسجيل الدخول إلى Copilot باستخدام حساب Microsoft أو مصادقة أخرى تابعة لجهة خارجية، يمكنك التحكم في ما إذا كانت محادثاتك تستخدم لتدريب نماذج الذكاء الاصطناعي التوليدية المستخدمة في Copilot. سيؤدي إلغاء الاشتراك إلى استبعاد استخدام محادثاتك السابقة والحاضرة والمستقبلية لتدريب نماذج الذكاء الاصطناعي هذه، ما لم تختر إعادة الاشتراك. إذا قمت بإلغاء الاشتراك، فسينعكس هذا التغيير في جميع أنحاء أنظمتنا في غضون 30 يوما.

إذا لم تقم بتسجيل الدخول إلى Copilot باستخدام حساب Microsoft أو مصادقة أخرى تابعة لجهة خارجية، فلن نقوم بتدريب Copilot على محادثاتك.

اقرأ كيفية التحكم فيما إذا كانت محادثاتك تستخدم لتدريب النموذج.

قد نقوم في النهاية بتوسيع التدريب النموذجي وعناصر التحكم في إلغاء الاشتراك للمستخدمين في بعض البلدان حيث لا نستخدم حاليا محفوظات المحادثات لتدريب النموذج (راجع ما هي البيانات المستبعدة من تدريب النموذج؟). ولكننا سنفعل ذلك تدريجيا، لضمان حصولنا على هذا الحق للمستهلكين وضمان امتثالنا لقوانين الخصوصية المحلية في جميع أنحاء العالم.

هل يمكنني إلغاء الاشتراك في تدريب النموذج ولا يزال لدي تجربة Copilot مخصصة؟

نعم، يمكنك إلغاء الاشتراك في تدريب النموذج ولا يزال التخصيص قيد التشغيل. في هذه الحالة، ستتذكر Copilot التفاصيل الرئيسية من محادثاتك لمنحك استجابة أكثر تخصيصا، ولكن Microsoft لن تستخدم محادثاتك لتدريب نماذج الذكاء الاصطناعي التوليدية Copilot.

هل ينطبق تدريب النموذج على Microsoft 365؟

ينطبق تدريب النموذج الذكاء الاصطناعي على تجربة Copilot المستهلك لدينا. فهو يستبعد مستخدمي Copilot الذين لديهم حسابات Entra ID تنظيمية، وأي مستخدمين مستهلكي Microsoft 365 أو محادثات Copilot مدمجة داخل تطبيقات مستهلكي Microsoft 365 مثل Word أو Excel أو PowerPoint أو Outlook. لن يرى مستخدمو هذه المنتجات هذا الإعداد، ولن يتم استخدام محادثاتهم لتدريب نماذج الذكاء الاصطناعي التوليدية التي نقدمها في Copilot أو منتجات أخرى.

نحن ندرك أن العملاء التجاريين لديهم متطلبات امتثال مختلفة عبر الصناعات وحول العالم. ستستمر Microsoft في مساعدة هذه المؤسسات على استخدام حدود المستأجر وعناصر التحكم الأخرى التي نقدمها لتحديد البيانات التي تمتلكها وإدارتها، بشكل منفصل.  لمعرفة المزيد حول كيفية تعامل Microsoft مع تدريب النموذج للعملاء التجاريين، اقرأ عن Enterprise Data Protection.

هل تتم مراجعة المحادثات Copilot من قبل الإنسان؟

تخضع بعض المحادثات Copilot للمراجعة الآلية والبشرية لتحسين المنتجات وأغراض السلامة الرقمية. يجوز لنا أيضا مراجعة المحادثات التي تم وضع علامة عليها على أنها انتهاك لقواعد السلوك في شروط الاستخدام. تحظر مدونة قواعد السلوك الخاصة بنا استخدام خدمة Copilot لإنشاء محتوى أو مواد غير مناسبة أو مشاركتها. تتم مراجعة بعض المحادثات عند الاشتباه في انتهاك قواعد السلوك.

هل يمكنني إلغاء الاشتراك في مراجعة محادثاتي Copilot من قبل الإنسان؟

ويلزم إجراء مراجعة بشرية محدودة كجزء من عملية التحقيق عند الاشتباه في انتهاك مدونة قواعد السلوك. لضمان أن تكون خدماتنا آمنة وآمنة للجميع، لا يتوفر إلغاء الاشتراك في المراجعة البشرية.

الذكاء الاصطناعي المسؤول

كيف تقترب Microsoft من الذكاء الاصطناعي المسؤولة عن Copilot ؟

في Microsoft، نأخذ التزامنا تجاه الذكاء الاصطناعي المسؤول على محمل الجد. يتم تطويرCopilot وفقا لمبادئنا الذكاء الاصطناعي، والتي تظهر الالتزام بالتأكد من تطوير الأنظمة الذكاء الاصطناعي بمسؤولية وبطرق تضمن ثقة الناس. لقد صممنا تجربة المستخدم Copilot للحفاظ على البشر في المركز ووضعنا ضمانات لتقليل الأخطاء وتجنب إساءة الاستخدام، ونحن نعمل باستمرار على تحسين التجربة. لمعرفة المزيد حول كيفية استخدام Copilot بمسؤولية، يرجى مراجعة "مذكرة شروط الاستخداموالشفافية".

كيف Copilot استخدام الإنترنت للعثور على مصادر معلوماته؟

يبحثCopilot عن المحتوى ذي الصلة عبر الويب ثم يلخص المعلومات التي يعثر عليها لإنشاء استجابة مفيدة. كما أنه يستشهد بمصادره، حتى تتمكن من رؤية الارتباطات إلى المحتوى الذي يشير إليه واستكشافها.

هل استجابات Copilot دقيقة دائما؟

تهدفCopilot إلى الاستجابة بمصادر موثوقة، ولكن يمكن الذكاء الاصطناعي ارتكاب أخطاء، وقد لا يكون محتوى الجهات الخارجية على الإنترنت دائما دقيقا أو موثوقا به. Copilot قد يسيء تمثيل المعلومات التي يعثر عليها، وقد ترى ردودا تبدو مقنعة ولكنها غير كاملة أو غير دقيقة أو غير مناسبة. استخدم حكمك وتحقق مرة أخرى من الحقائق قبل اتخاذ القرارات أو اتخاذ إجراء بناء على استجابات Copilot. تعد مراجعة اقتباسات Copilot مكانا جيدا لبدء التحقق من الدقة.

لمشاركة ملاحظات الموقع أو الإبلاغ عن مشكلة، حدد "تقديم ملاحظات" في الإعدادات أو استخدم أيقونة العلامة أسفل كل استجابة في تطبيق الأجهزة المحمولة وصفحة ويب Copilot. في تطبيق Copilot ، يمكنك أيضا الضغط لفترة طويلة على الاستجابة وتحديد "تقرير". سنواصل مراجعة ملاحظاتك لتوفير تجربة بحث آمنة للجميع.

ما نوع الضمانات التي يجب على Copilot التأكد من أن المحتوى آمن؟

الذكاء الاصطناعي المسؤول هو رحلة، ونحن نعمل باستمرار على تقييم وتحسين Copilot لجعل التجربة أكثر أمانا. نحن نطبق تصفية صارمة للمحتوى على المعلومات التي نستخدمها لتدريب Copilot ، ونستخدم تدابير لتقييم استجابات Copilot لمخاطر الأمان المحتملة قبل تقديم الاستجابة لك. لدينا أيضا أنظمة للكشف عن السلوك المسيء ومنعه.

بالإضافة إلى ذلك، لتحسين سلامة Copilot وقدرتهم على اكتشاف المخاطر، نتشارك مع مؤسسات بحثية خارجية لمراجعة المحادثات Copilot وتقييمها. على سبيل المثال، يمكن للمؤسسات البحثية الخارجية المساعدة في مراجعة Copilot سجلات المحادثات لفهم مجموعة متنوعة من الاستعلامات المستخدمة للبحث عن محتوى متطرف، ومقارنة الاتجاهات في جميع أنحاء الصناعة، وتقديم المشورة بشأن التقنيات للعثور على الضرر والتخفيف من حدته بشكل أفضل.

يمكنك معرفة المزيد حول نهجنا للسلامة في ملاحظة الشفافية الخاصة بنا.

ماذا يجب أن أفعل إذا رأيت محتوى غير متوقع أو مسيء؟

بينما قمنا بتصميم تجربة Copilot لتجنب مشاركة محتوى مسيء غير متوقع أو التعامل مع مواضيع يحتمل أن تكون ضارة، فقد لا تزال ترى نتائج غير متوقعة. نحن نعمل باستمرار على تحسين تقنيتنا لمنع المحتوى الضار.

إذا واجهت محتوى ضارا أو غير مناسب، فالرجاء تقديم ملاحظات أو الإبلاغ عن مشكلة بالنقر فوق "تقديم ملاحظات" في الإعدادات أو استخدام أيقونة العلامة أسفل كل استجابة في تطبيق الأجهزة المحمولة وصفحة ويب Copilot. في Copilot تطبيق الأجهزة المحمولة، يمكنك أيضا الضغط لفترة طويلة على الاستجابة وتحديد "تقرير". سنواصل مراجعة ملاحظاتك لتوفير تجربة آمنة.

كيف تعمل المراجعة البشرية للمحادثات Copilot على تحسين تجربتك؟

قد يقوم خبراء الذكاء الاصطناعي المدربون بمراجعة المحادثات Copilot لبناء وتقييم وتحسين دقة وسلامة نماذجنا الذكاء الاصطناعي. نستخدم الملاحظات البشرية لضمان جودة الإخراج لمطالبة المستخدم، وتحسين تجربتك. تظل بياناتك خاصة عند استخدام خدماتنا. سنحمي بياناتك الشخصية كما هو موضح في بيان خصوصية Microsoft وتوافقا مع قوانين الخصوصية في جميع أنحاء العالم.

في بعض الأحيان تشعر أن كوبيليوت شخص آخر. لماذا هذا؟

تم تصميم Copilot ليكون رفيق قائم على الذكاء الاصطناعي مفيدا من خلال الاستجابة والمحادثة والوعي بالسياق. يمكنه الدردشة معك باللغة اليومية، والرد بسرعة، والإشارة إلى المعلومات التي قمت بمشاركتها بالفعل. يمكنك استخدام Copilot للإجابة عن الأسئلة والعثور على المعلومات والمساعدة في الكتابة وإرشادك خلال المهام. تم تطوير Copilot ليشعر بالبديهية والدعم. يمكن أن تجعل هذه الخصائص التفاعلات مع رفيق قائم على الذكاء الاصطناعي تبدو وكأنها محادثة طبيعية مع زميل أو صديق.  

ومع ذلك، من المهم أن نتذكر أن Copilot هو أداة وليس شخصا وليس لديه آرائه أو عواطفه الخاصة. إنه نظام برامج يولد استجابات من خلال اكتشاف أنماط في البيانات وقد لا يكون له سياق كامل للعالم الحقيقي. قد لا يكون لدى Copilot دائما الإجابة الصحيحة، خاصة بالنسبة للحالات المعقدة والعاطفية، أو المناطق الأخرى التي قد لا تحتوي فيها على بيانات كافية. إنه هنا لدعمك في اتخاذ قراراتك الخاصة وليس استبدالها. 

أحيانا محادثاتي مع كوبليوت تشعر بالارتباك أو ثقيلة عاطفيا. ماذا يجب أن أفعل؟

إذا كانت الدردشة تشعر بالارتباك أو الثقل العاطفي، فمن المستحسن أن تستغرق بعض الوقت للتوقف والتأمل. يمكنك أيضا التحقق مع شخص تثق به إذا لم تكن متأكدا من أي شيء قاله كوبليوت أو كيف تشعر حيال التفاعل؛ قد يشمل ذلك الأصدقاء أو العائلة أو الأشخاص الذين تعرفهم من مجتمعك أو المستشارين أو المهنيين الآخرين.

هل تحتاج إلى مزيد من المساعدة؟

الخروج من الخيارات إضافية؟

استكشف مزايا الاشتراك، واستعرض الدورات التدريبية، وتعرف على كيفية تأمين جهازك، والمزيد.