עדכון אחרון: מאי 2024
יסודות Copilot ב- Bing
Copilot ב- Bing עכשיו Microsoft Copilot. קראו את הגישה שלנו ליישום אחראי של בינה מלאכותית בתיעוד כאן: הערת שקיפות Microsoft Copilot.
מבוא
בפברואר 2023, Microsoft השקה את Bing החדש, חוויה משופרת של חיפוש באינטרנט באמצעות בינה מלאכותית. הוא תומך במשתמשים על-ידי סיכום תוצאות חיפוש באינטרנט ומתן חוויית צ'אט. המשתמשים יכולים גם להפיק תוכן יצירתי, כגון שירים, בדיחות, סיפורים, וכן באמצעות Bing יוצר התמונות, תמונות. Bing החדש המשופר באמצעות בינה מלאכותית פועל במגוון טכנולוגיות מתקדמות של Microsoft ו- OpenAI, כולל GPT, מודל שפה גדול (LLM) ו- DALL-E, מודל למידה עמוקה ליצירת תמונות דיגיטליות ותיאורים בשפה טבעית, שניהם מ- OpenAI. עבדנו עם שני המודלים במשך חודשים לפני ההפצה הציבורית כדי לפתח קבוצה מותאמת אישית של יכולות וטכניקות כדי להצטרף לטכנולוגיית בינה מלאכותית מתקדמת זו ולחיפוש באינטרנט ב- Bing החדש. בנובמבר 2023, Microsoft שימה את השם החדש של Bing Copilot ב- Bing.
אנו ב- Microsoft לוקחים ברצינות את המחויבות שלנו ליישום אחראי של בינה מלאכותית. חוויית Copilot ב- Bing פותחה בקנה אחד עם עקרונות הבינה המלאכותית של Microsoft, התקן ליישום אחראי של בינה מלאכותית של Microsoft ובשותפות עם מומחי בינה מלאכותית אחראיים ברחבי החברה, כולל ה- Office ליישום אחראי של בינה מלאכותית של Microsoft, צוותי ההנדסה שלנו, Microsoft Research ו- Aether. כאן ניתן לקבל מידע נוסף על יישום אחראי של בינה מלאכותית ב- Microsoft.
במסמך זה, אנו מתארים את הגישה שלנו ליישום אחראי של בינה מלאכותית Copilot ב- Bing. לפני ההפצה, אימצנו שיטות מתקדמות לזיהוי, למדוד ולצמצם סיכונים פוטנציאליים ושימוש לרעה במערכת, ולהבטחת היתרונות שלה עבור המשתמשים. כשמשכנו לפתח את Copilot ב- Bing מאז ההפצה הראשונה, המשכנו גם ללמוד ולשפר את המאמצים שלנו ליישום אחראי של בינה מלאכותית. מסמך זה יתעדכן מעת לעת כדי להעביר את התהליכים והשיטות המתפתחים שלנו.
מונחים עיקריים
Copilot ב- Bing היא חוויה משופרת של חיפוש באינטרנט באמצעות בינה מלאכותית. כאשר היא פועלת על טכנולוגיה חדשה רבת-עוצמה, אנחנו מתחילים בהתקנת כמה מונחים עיקריים.
מודלים של למידת מכונה שמסייעים למיין נתונים לכיתות או לקטגוריות מידע עם תוויות. ב- Copilot ב- Bing, דרך אחת שבה אנו משתמשים במיישרים היא לזהות תוכן שעלול להיות מזיק שנשלח על-ידי משתמשים או שנוצר על-ידי המערכת כדי לצמצם את הדור של תוכן זה ולהשתמש בו לרעה או להשתמש בו לרעה.
Copilot ב- Bing מקורקע בתוצאות חיפוש באינטרנט כאשר המשתמשים מחפשים מידע. משמעות הדבר היא שאנו מרכזים את התגובה שסופקה לשאילתה של משתמש או לבקשה לגבי תוכן בעל דירוג גבוה מהאינטרנט, ואנו מספקים קישורים לאתרי אינטרנט כדי שהמשתמשים יוכלו לקבל מידע נוסף. Bing מדרג תוכן חיפוש באינטרנט על-ידי תכונות משקל כבדות כגון רלוונטיות, איכות ואמינות ורנון. אנחנו מתארים מושגים אלה בפירוט רב יותר באופן האופן בו Bing מספק תוצאות חיפוש (ראה "איכות ואמינות" ב"כיצד Bing מדרג תוצאות חיפוש").
אנו מחשיבים תגובות מקורקעות לתגובות מ- Copilot ב- Bing שבהן הצהרות נתמכות על-ידי מידע הכלול במקורות קלט, כגון תוצאות חיפוש באינטרנט מהשאילתה או מהבקשה, מידע מפורט של Bing Knowledge Base, וכן עבור חוויית הצ'אט, היסטוריית שיחות אחרונה בצ'אט. תגובות לא מוארות הן אלה שבהן משפט אינו מוארק במקורות קלט אלה.
מודלי שפה גדולים (LLMs) בהקשר זה הם מודלים של בינה מלאכותית שמוכשמים בכמויות גדולות של נתוני טקסט לחיזוי מילים ברצף. ל- LLMs יש אפשרות לבצע מגוון משימות, כגון יצירת טקסט, סיכום, תרגום, סיווג ועוד.
המטה-הגנה היא תוכנית המשמשת להדריך את אופן הפעולה של המערכת. חלקים של המטה-הגנה מסייעים ביישור אופן הפעולה של המערכת לעקרונות הבינה המלאכותית של Microsoft ולציפיות המשתמשים. לדוגמה, המטה-הגנה עשוי לכלול שורה כגון "נהל תקשורת בשפת הבחירה של המשתמש".
שיטה או שילוב של שיטות שנועדו להפחית סיכונים פוטנציאליים שעלולים להתעורר משימוש בתכונות מונחות בינה מלאכותית Copilot ב- Bing.
טקסט, קול, תמונות ו/או שאילתות מותאמות אחרות שמשתמש שולח ל- Bing כקלט למודל ההנע חוויות דורקטיביות חדשות המבוססות על בינה מלאכותית ב- Bing. לדוגמה, משתמש עשוי להזין את הבקשה הבאה:
"אני מתכנן טיול ליום השנה שלנו בספטמבר. מהם כמה מקומות שאנחנו יכולים לנסוע בהם במרחק של 3 שעות טיסה מלונדון הית'רו?”
הטקסט שמשתמש שולח ל- Bing מסרגל החיפוש לחיפוש באינטרנט. במסמך זה, אנו מבחבחים בין שאילתה (עבור חיפוש באינטרנט) לבקשה (עבור חוויות דורקטיביות מונחות בינה מלאכותית ב- Bing). לדוגמה, משתמש עשוי להזין את השאילתה הבאה כדי לחפש באינטרנט:
"נמל התעופה לונדון הית'רו"
טכניקות המשמשות מומחים כדי להעריך את המגבלות והפגיעות של מערכת ולבחון את היעילות של צמצום סיכונים מתוכנן. בדיקות צוות אדומות ובדיקות מאמץ משמשות לזיהוי סיכונים פוטנציאליים, והן נפרדות מדידה מערכתית של סיכונים.
הטקסט, התמונה, התרשימים וכו' Copilot ב- Bing פלט בתגובה לבקשה. מילים נרדפות עבור "תגובה" כוללות את המילים "completion", "generation" ו- "answer". לדוגמה, Bing עשוי לספק את התגובה הבאה לבקשה שבה השתמשנו בהגדרה של 'בקשה' לעיל:
"ברכות ליום השנה שלך! ישנם מקומות רבים שאתה יכול ללכת כי הם בתוך טיסה של 3 שעות מלונדון הית'רו. לפי מקור אחד, חלק מבריחות סוף השבוע בתוך שלוש שעות במטוס מלונדון הם בילבאו, קופנהגן, רייקיאוויק ושטוקהולם 1, 2. מקור אחר מציע כמה מהמקומות הטובים ביותר ללכת באירופה בספטמבר הם קרקוב, פירנצה, ליסבון 3, 4. תוכל גם לבדוק את טיסות ישירות מלונדון הית'רו ליעדים שונים ולראות מה מושך אותך 5. אני מקווה שיהיה לך טיול נפלא!”
שימושים ייעודיים וחוויות חדשות של בינה מלאכותית
Copilot ב- Bing המיועדים הם לחבר משתמשים לתוצאות חיפוש רלוונטיות, לסקור תוצאות מכל רחבי האינטרנט כדי למצוא ולסכם תשובות שהמשתמשים מחפשים, לעזור למשתמשים למקד את המחקר שלהם כדי לקבל תשובות באמצעות חוויית צ'אט ולציצו את היצירתיות בכך שהם עוזרים למשתמשים ליצור תוכן. Copilot ב- Bing חוויות הבינה המלאכותית הגנטיות שלהלן תומכות ביעד של טייסת-משנה מבוססת בינה מלאכותית באינטרנט.
סיכום סיכום. כאשר משתמשים שולחים שאילתת חיפוש ב- Copilot ב- Bing, מערכת Bing מעבדת את השאילתה, מבצעת חיפוש אינטרנט אחד או יותר ומשתמשת בתוצאות החיפוש המובילות באינטרנט כדי ליצור סיכום של המידע להצגה למשתמשים. סיכומי קבצים אלה כוללים הפניות כדי לעזור למשתמשים לראות את תוצאות החיפוש המשמשות כדי לעזור להסלים את הסיכום ולגשת אותן בקלות. סיכומי עשויים להופיע בצד השמאלי של דף תוצאות החיפוש ו בתוך חוויית הצ'אט.
חוויית צ'אט. בנוסף לסיכום, המשתמשים יכולים לשוחח בצ'אט עם מערכת Copilot ב- Bing באמצעות קלט טקסט, תמונה או קול, לשאול שאלות המשך טיפול כדי להבהיר חיפושים ולחפש מידע חדש ולשלוח בקשות ליצירת תוכן יצירתי. הפניות נכללות גם בחוויה של Copilot ב- Bing כאשר הוא מסכם את תוצאות החיפוש בתגובה.
יצירת תוכן יצירתי. הן את חוויית הצ'אט והן בדף החיפוש, המשתמשים יכולים ליצור שירים, בדיחות, סיפורים, תמונות ותוכן אחר בעזרת Copilot ב- Bing. תמונות נוצרות על-ידי Designer (לשעבר Bing יוצר התמונות), והמשתמשים יכולים לגשת לתכונה באמצעות Designer הבית וכן בדף Copilot.
כיצד Copilot ב- Bing פועל?
בעזרת Copilot ב- Bing, פיתחנו גישה חדשנית כדי להביא את ה- LLMs הטכנולוגיים והחדשניים לחיפוש באינטרנט. כאשר משתמש מזין בקשה ב- Copilot ב- Bing, הבקשה, היסטוריית השיחות האחרונה, המטה-הגנה והתוצאות המובילות של החיפוש נשלחות כקלט ל- LLM. המודל יוצר תגובה באמצעות בקשת המשתמש והיסטוריית השיחות האחרונה כדי ליצור הקשר עם הבקשה, המטה-הגנה כדי ליישר תגובות עם עקרונות הבינה המלאכותית של Microsoft וציפיות המשתמשים, והתוצאות של תוצאות החיפוש לתשובות בסיסיות בתוכן קיים בעל דירוג גבוה מהאינטרנט.
תגובות מוצגות למשתמשים בכמה תבניות שונות, כגון קישורים מסורתיים לתוכן אינטרנט, סיכומי בינה מלאכותית, תמונות ותגובות לצ'אט. סיכומי סיכום ותגובות צ'אט שנוסתות על תוצאות חיפוש באינטרנט יכללו הפניות וסעיף "מידע נוסף" מתחת לתגובות, עם קישורים לתוצאות החיפוש ששימשו להקרקעת התגובה. המשתמשים יכולים ללחוץ על קישורים אלה כדי לקבל מידע נוסף על נושא ועל המידע המשמש להקרקע את הסיכום או את תגובת הצ'אט.
בחוויה של Copilot, המשתמשים יכולים לבצע חיפושים באינטרנט באמצעות שיחה על-ידי הוספת הקשר לבקשה שלהם ואינטראקציה עם תגובות המערכת כדי לציין עוד יותר את תחומי העניין שלהם לחיפוש. לדוגמה, משתמש עשוי לשאול שאלות המשך טיפול, לבקש מידע הבהרה נוסף או להגיב למערכת באופן שיחה. בחוויה של הצ'אט, המשתמשים יכולים גם לבחור תגובה מהצעות כתובות מראש, שאנו קוראים לה הצעות צ'אט. לחצנים אלה מופיעים לאחר כל תגובה מ- Copilot ומספקים הנחיות מוצעות כדי להמשיך את השיחה בתוך חוויית הצ'אט. הצעות צ'אט מופיעות גם לצד תוכן מסוכם בדף תוצאות החיפוש כנקודת כניסה עבור חוויית הצ'אט.
Copilot ב- Bing גם מאפשרת למשתמש ליצור סיפורים, שירים, מילות שירים ותמונות בעזרת Bing. כאשר Copilot ב- Bing לזהות כוונה של משתמש ליצור תוכן יצירתי (לדוגמה, הבקשה מתחילה ב- "write me a ..."), המערכת, ברוב המקרים, תפיק תוכן המגיב לבקשה של המשתמש. באופן דומה, Copilot ב- Bing מזהה כוונה של משתמש ליצור תמונה (לדוגמה, הבקשה מתחילה ב"צייר לי ..."), המערכת, ברוב המקרים, תפיק תמונה שתגיב לבקשה של המשתמש. בחוויה של חיפוש חזותי בצ'אט, עם תמונה שצולמה על-ידי מצלמת המשתמש, שהועלה מהמכשיר של המשתמש או המקושרת מהאינטרנט, המשתמשים יכולים לבקש מ- Copilot ב- Bing להבין את ההקשר, לפרש ולענה על שאלות לגבי התמונה. המשתמשים יכולים גם להעלות את הקבצים שלהם ל- Copilot כדי לפרש, להמיר, לעבד או לחשב מהם מידע. בחוויה Microsoft Designer שמשתמשים יכולים לגשת אליה באמצעות Copilot ב- Bing, המשתמשים יכולים לא רק ליצור תמונות באמצעות הנחיות, אלא גם לשנות את גודלן או להציג אותן מחדש, או לבצע פעולות עריכה כגון רקע מטושטש או להפוך צבעים לצבעים מלאי חיים יותר.
למשתמשים בעלי חשבונות Microsoft (MSA) יש כעת גם אפשרות להירשם כמנוי ל- Copilot Pro המציע חוויה משופרת, כולל ביצועים מואצים וי יצירת תמונה מהירה יותר של בינה מלאכותית. Copilot Pro זמינה כעת במדינות מוגבלות, ובכוונתנו להפוך את Copilot Pro לזמין בשווקים נוספים בקרוב.
לקבלת מידע נוסף על Copilot Pro, בקר כאן.
Copilot ב- Bing שואפת לספק תוצאות חיפוש מגוונות ומקיפות עם המחויבות שלה לגישה חופשית ופתוחה למידע. בו-זמנית, המאמצים שלנו לאיכות המוצר כוללים עבודה כדי למנוע קידום בשוגג של תוכן שעלול להיות מזיק למשתמשים. מידע נוסף על האופן שבו Bing מדרג תוכן, כולל האופן שבו הוא מגדיר רלוונטיות ואת האיכות והאמינות של דף אינטרנט, זמין ב"קווים מנחים למנהלי אתרים של Bing". מידע נוסף על עקרונות צוני התוכן של Bing זמין ב"כיצד Bing מספק תוצאות חיפוש".
בחוויה Copilot ב- Windows, Copilot ב- Bing להשתמש במערכת ההפעלה Windows כדי לספק מיומנויות ספציפיות ל- Windows, כגון שינוי ערכת הנושא או הרקע של המשתמש ושינוי הגדרות כגון שמע, Bluetooth ועבודה ברשת. חוויות אלה מאפשרות למשתמש לקבוע את תצורת ההגדרות שלו ולשפר את חוויית המשתמש שלו באמצעות בקשות בשפה טבעית ל- LLM. ניתן לספק פונקציונליות ספציפית ליישום גם דרך יישומי Plug-in של ספקים חיצוניים. משימות אלה יכולות להפוך משימות שחוזרות על עצמן לאוטומטיות ולהשיג יעילות משתמשים גדולה יותר. מאחר ש- LLMs יכולים לבצע טעויות מדי פעם, מסופקות בקשות אישור משתמש מתאימות כדי שהמשתמש יהיה בורר השינויים הסופי שניתן לבצע.
זיהוי, מדידה והפחתת סיכונים
כמו טכנולוגיות טרנספורמציה אחרות, נצלת היתרונות של בינה מלאכותית אינה מבוססת על סיכונים, ו חלק מרכזי בתוכנית הבינה המלאכותית האחראית של Microsoft נועד לזהות סיכונים פוטנציאליים, למדוד את ההפצה שלהם ולבנות צמצום סיכונים כדי לטפל בהם. במדריכים של עקרונות הבינה המלאכותית שלנו ותקן הבינה המלאכותית שלנו ליישום אחראי, ביקשנו לזהות, למדוד ולצמצם סיכונים פוטנציאליים ושימוש לרעה ב- Copilot ב- Bing תוך אבטחת השימושים המנווניים וההטבים שהחוויה החדשה מספקת. בסעיפים הבאים אנו מתארים את הגישה האיטרטיבית שלנו לזיהוי, מדידת סיכונים פוטנציאליים והפחתתם.
ברמת המודל, העבודה שלנו התחילה עם ניתוחים גישוש של GPT-4 בסוף הקיץ של 2022. הדבר כלל ביצוע בדיקות נרחבות של צוות אדום בשיתוף פעולה עם OpenAI. בדיקה זו תוכננה כדי להעריך כיצד הטכנולוגיה העדכנית ביותר ת לפעול ללא כל אמצעי הגנה נוספים שחלים עליה. הכוונה הספציפית שלנו בשלב זה הייתה ליצור תגובות מזיקות, להציג שדרות פוטנציאליות לשימוש לרעה ולזהות יכולות ומגבלות. הלמידה המשולבת שלנו ברחבי OpenAI ו- Microsoft תרמה להתקדמות בפיתוח מודלים, ובבשבילנו ב- Microsoft, הודיעו לנו על ההבנה של סיכונים ותרמו לאסטרטגיות צמצום סיכונים מוקדם עבור Copilot ב- Bing.
בנוסף לבדיקת צוות אדום ברמת המודל, צוות רב-תחומי של מומחים ערך סבבים רבים של בדיקות צוות אדום ברמת היישום בחוויות הבינה המלאכותית של Copilot ב- Bing לפני הפיכתם לזמינים לציבור בתצוגה המקדימה של ההפצה המוגבלת שלנו. תהליך זה עזר לנו להבין טוב יותר כיצד ניתן לנצל את המערכת על-ידי שחקני תואר הפועל ולשפר את צמצום הסיכונים. בודקי לחץ שאינם תואר הפועלים גם העריכו בהרחבה תכונות חדשות של Bing עבור פגיעות וקצרות. לאחר ההפצה, חוויות הבינה המלאכותית החדשות ב- Bing משולבות בתשתית הקיימת של מדידת ייצור ובדיקות של ארגון Bing. לדוגמה, בודקי צוות אדומים מאזורים שונים ומרקעים שונים מנסים באופן שיטתי לסכן את המערכת, וממצאיהם משמשים להרחבת ערכות הנתונים המשמשות את Bing לשיפור המערכת.
בדיקות צוות אדומות ובדיקות מאמץ יכולות להציג מופעים של סיכונים ספציפיים, אך בקרב משתמשי הייצור יהיו מיליוני סוגים שונים של שיחות עם Copilot ב- Bing. בנוסף, שיחות הן רב-סיבוביות והקשריות, וזיהוי תוכן מזיק בתוך שיחה היא משימה מורכבת. כדי להבין טוב יותר את הפוטנציאל לסיכונים בחוויות הבינה המלאכותית של Copilot ב- Bing, פיתחנו מדדים נוספים של יישום אחראי של בינה מלאכותית הספציפיים לחוויות החדשות של בינה מלאכותית למדידת סיכונים פוטנציאליים כגון שבבירות כלא, תוכן מזיק ותוכן לא מואר. בנוסף, הפעלנו מדידה בקנה מידה בקנה מידה באמצעות קווי צינור אוטומטיים חלקית של מדידה. בכל פעם שה מוצר משתנה, צמצום סיכונים קיימים מתעדכן או צמצום סיכונים חדש מוצע, אנו מעדכנים את קווי הצינור של המדידה כדי להעריך הן את ביצועי המוצר והן את מדדי הבינה המלאכותית האחראית.
כדוגמה אילוסטרציה, קו צינור המידה האוטומטי החלקי המעודכן עבור תוכן מזיק כולל שני חידושים עיקריים: הדמיות שיחה וביאור אוטומטי של שיחה שאומתה על-ידי בני אדם. תחילה, מומחי בינה מלאכותית אחראית בנו תבניות לתיעד המבנה והתוכן של שיחות שעלולות לגרום לסוגים שונים של תוכן מזיק. תבניות אלה ניתנו לאחר מכן לסוכן שיחה אשר קיים אינטראקציה כמשתמש היפותטי עם Copilot ב- Bing, יוצר שיחות מדומה. כדי לזהות אם שיחות מדומה אלה הכילו תוכן מזיק, השתמשנו בקווים מנחים המשמשים בדרך כלל את המומחים הפתולוגים כדי לתייג נתונים ושינו אותם לשימוש על-ידי GPT-4 כדי לתייג שיחות בקנה מידה רחב, תוך שיפור הקווים המנחים עד שהיה הסכם משמעותי בין שיחות עם תוויות מודל ושיחות עם תוויות אנושיות. לבסוף, השתמשנו בשיחות עם תוויות המודל לחישוב מדד אחראי של בינה מלאכותית הלוכד את היעילות של Copilot ב- Bing בהפחתת תוכן מזיק.
קווי הצינור של המידות מאפשרים לנו לבצע מדידה במהירות עבור סיכונים פוטנציאליים בקנה מידה גדול. כאשר אנו מזהים בעיות חדשות במהלך תקופת התצוגה המקדימה ובבדיקה המתמשכת של הצוות האדום, אנו ממשיכים להרחיב את ערכות המידה כדי להעריך סיכונים נוספים.
כאשר זיהינו סיכונים פוטנציאליים ולהשתמש לרעה בתהליכים כמו בדיקות צוות אדומות ובדיקות מתח ומדדנו אותם עם הגישות החדשניות המתוארות לעיל, פיתחנו צמצום סיכונים נוסף לאלה המשמשים לחיפוש מסורתי. להלן, אנו מתארים כמה מסיכונים אלה. נמשיך לנטר את החוויות Copilot ב- Bing בינה מלאכותית כדי לשפר את ביצועי המוצרים ואת צמצום הסיכונים.
הפצה בשלבים, הערכה מתמשכית. אנו מחויבים ללמוד ולשפר את הגישה שלנו ליישום אחראי של בינה מלאכותית באופן רציף ככל שהטכנולוגיות וההתפתחות של המשתמשים מתפתחים. אסטרטגיית ההפצה המצטברת שלנו הייתה חלק מרכזי באופן העברת הטכנולוגיה שלנו בבטחה מהמעבדות לעולם, ואנו מחויבים לתהליך מחושב ומבוקר כדי להבטיח את היתרונות של Copilot ב- Bing. הגבלת מספר האנשים בעלי גישה במהלך תקופת התצוגה המקדימה אפשרה לנו לגלות כיצד אנשים משתמשים ב- Copilot ב- Bing, כולל האופן בו אנשים עלולים לעשות בו שימוש לרעה, כדי שנוכל לנסות לצמצם בעיות מתפתחות לפני הפצה רחבה יותר. לדוגמה, אנו דורשים מהמשתמשים לבצע אימות באמצעות חשבון Microsoft שלהם לפני שאנו ניגשים לחוויה החדשה המלאה של Bing. משתמשים לא מאומתים יכולים לגשת לתצוגה מקדימה מוגבלת בלבד של החוויה. שלבים אלה למנוע שימוש לרעה ולעזור לנו (לפי הצורך) לבצע פעולה מתאימה בתגובה להפרות של קוד ההתנהגות. אנו משתתפים בשינויים Copilot ב- Bing כדי לשפר את ביצועי המוצר, לשפר צמצום סיכונים קיימים וליישם צמצום סיכונים חדש בתגובה ללמידה שלנו במהלך תקופת התצוגה המקדימה.
הארתקעות בתוצאות החיפוש. כפי שצוין לעיל, Copilot ב- Bing מיועד לספק תגובות הנתמכות על-ידי המידע בתוצאות חיפוש באינטרנט כאשר המשתמשים מחפשים מידע. לדוגמה, המערכת מסופקת עם טקסט מתוך תוצאות החיפוש המובילות והוראות באמצעות Metaprompt כדי להקרקע את התגובה שלו. עם זאת, בסיכום תוכן מהאינטרנט, Copilot ב- Bing לכלול מידע בתגובה שלו שאינו נמצא במקורות הקלט שלו. במילים אחרות, הוא עשוי להביא לתוצאות לא מוארכות. ההערכות המוקדמות שלנו ציינו שהתוצאות הלא מוארות בצ'אט עשויות להיות נפוצות יותר עבור סוגים מסוימים של בקשות או נושאים מאשר אחרים, כגון בקשה לחישובים מתמטיים, מידע פיננסי או מידע שוק (לדוגמה, רווחים מהחברה, נתוני ביצועי מניות) ומידע כגון תאריכי אירועים מדויקים או מחירים ספציפיים של פריטים. המשתמשים צריכים תמיד לנקוט משנה זהירות ולהשתמש בשיקול דעת מיטבי בעת הצגת תוצאות חיפוש מסוכמת, בין אם בדף תוצאות החיפוש או בחוויה של הצ'אט. נקטנו בכמה אמצעים כדי לצמצם את הסיכון שמשתמשים עשויים להשתמש בתוכן שלא מוארק יתר על כנו בתרחישי סיכום ובחוויות צ'אט. לדוגמה, תגובות ב- Copilot ב- Bing המבוססות על תוצאות חיפוש כוללות הפניות לאתרי המקור עבור משתמשים כדי לאמת את התגובה וללמוד עוד. משתמשים ניתנים גם עם הודעה מפורשת שהם מקיים אינטראקציה עם מערכת בינה מלאכותית, ונעצים לבדוק את חומרי המקור של תוצאות האינטרנט כדי לעזור להם להשתמש בשיקול דעתם הטוב ביותר.
מסווגים מבוססי בינה מלאכותית ומט-הגנה כדי לצמצם סיכונים פוטנציאליים או שימוש לרעה. השימוש ב- LLMs עלול לגרום לתוכן בעייתי שעלול להוביל לסיכונים או לשימוש לרעה. דוגמאות יכולות לכלול פלט הקשור לפגיעה עצמית, אלימות, תוכן גרפי, קניין רוחני, מידע לא מדויק, דיבור שונא או טקסט שעשוי להיות קשור לפעילויות בלתי חוקיות. מסווגים ומטא-הגנה הם שתי דוגמאות של צמצום סיכונים שהושמו ב- Copilot ב- Bing כדי לסייע בהפחתת הסיכון של סוגי תוכן אלה. מסווגים מסווגים טקסט כדי לסמן סוגים שונים של תוכן שעלול להיות מזיק בשאילתות חיפוש, בקשות צ'אט או תגובות שנוצרו. Bing משתמש בסיווגים ובמסנן תוכן המבוססים על בינה מלאכותית, החלים על כל תוצאות החיפוש והתכונות הרלוונטיות; עיצבנו מסווגי בקשות ומסנני תוכן נוספים באופן ספציפי כדי לטפל בסיכונים אפשריים המועלה על-ידי Copilot ב- Bing התוכן. דגלים מובילים לצמצום סיכונים פוטנציאליים, כגון אי-החזרת תוכן שנוצר למשתמש, העברת המשתמש לנושא אחר או ניתוב מחדש של המשתמש לחיפוש מסורתי. חילוף החומרים כולל מתן הוראות למודל להדריך את אופן הפעולה שלו, כולל כך שהמערכת מתנהגת בהתאם לעקרונות הבינה המלאכותית ולציפיות המשתמשים של Microsoft. לדוגמה, המטה-הגנה עשוי לכלול שורה כגון "נהל תקשורת בשפת הבחירה של המשתמש".
הגנה על פרטיות בחיפוש חזותי Copilot ב- Bing. כאשר משתמשים מעלה תמונה כחלק מהבקשה שלהם לצ'אט, Copilot ב- Bing משתמשים בטכנולוגיה טשטוש פנים לפני שליחת התמונה למודל הבינה המלאכותית. טשטוש פנים משמש כדי להגן על הפרטיות של אנשים בתמונה. הטכנולוגיה הטשטוש בפנים מסתמכת על רמזים תלויי הקשר כדי לקבוע היכן לטשטש ולטשטש את כל הפרצופים. כאשר הפנים מטושטשים, מודל הבינה המלאכותית עשוי להשוות את התמונה המוזנת לאלה של תמונות הזמינות לציבור באינטרנט. כתוצאה מכך, ייתכן ש- Copilot ב- Bing יוכל לזהות שחקן כדורסל מפורסם מתמונה של שחקן זה במגרש כדורסל על-ידי יצירת ייצוג מספרי המשקף את מספר הג'רזי של השחקן, צבע ג'רזי, הנוכחות של חישוק כדורסל וכן הלאה Copilot ב- Bing אינו מאחסן ייצוגים מספריים של אנשים מתוך תמונות שהועלו ולא משתף אותם עם ספקים חיצוניים. Copilot ב- Bing נעשה שימוש בייצוגים מספריים של התמונות שמשתמשים מעלה רק למטרת מענה לבקשות של משתמשים, ולאחר מכן הם נמחקים תוך 30 יום לאחר סיום הצ'אט.
אם המשתמש מבקש Copilot ב- Bing מידע על תמונה שהועלה, תגובות הצ'אט עשויות לשקף את ההשפעה של טשטוש פנים על היכולת של המודל לספק מידע על התמונה שהועלה. לדוגמה, Copilot ב- Bing מתאר מישהו כבעל פנים מטושטשות.
מגביל סחף של שיחות. במהלך תקופת התצוגה המקדימה למדנו כי הפעלות צ'אט ארוכות מאוד יכולות לגרום לתגובות שחוזרות על עצמן, לא מועילות או לא תואמות Copilot ב- Bing המיועד של המשתמש. כדי לטפל בסחף שיחה זה, הגבילו את מספר הפניות (החליפיות המכילות הן שאלת משתמש והן תשובה מ- Copilot ב- Bing) לכל הפעלת צ'אט. אנו ממשיכים להעריך גישות נוספות כדי לצמצם בעיה זו.
העשרת הנחיה. במקרים מסוימים, הבקשה של משתמש עשויה להיות חד-משמעית. במקרה כזה, Copilot ב- Bing להשתמש ב- LLM כדי לסייע בבנייה של פרטים נוספים בהנחיה כדי להבטיח שהמשתמשים יקבלו את התגובה שהם מחפשים. העשרת הנחיה כזו אינה מסתה בידע של המשתמש או בחיפושים שבהם הוא היה קודם, אלא במודל הבינה המלאכותית. שאילתות מתוקנת אלה יהיו גלויות בהיסטוריית הצ'אט של המשתמש, ו, כמו חיפושים אחרים, ניתן למחוק באמצעות פקדים בתוך המוצר.
התערבות של עיצוב וחוויה של משתמש המרכז על-ידי המשתמש. חוויות עיצוב ומשתמשים המרכזות על-ידי המשתמש הן היבט חיוני של הגישה של Microsoft ליישום אחראי של בינה מלאכותית. המטרה היא לשורש עיצוב המוצר בצרכים ובציפיות של המשתמשים. כאשר משתמשים מקיימים אינטראקציה עם Copilot ב- Bing בפעם הראשונה, אנו מציעים נקודות מגע שונות שנועדו לעזור להם להבין את יכולות המערכת, לחשוף בפניהם Copilot ב- Bing מופעל על-ידי בינה מלאכותית, ולמסור להם מגבלות. החוויה נועדה באופן זה כדי לעזור למשתמשים להפיק את המרב Copilot ב- Bing ולמזער את הסיכון של התחליף. רכיבים של החוויה גם עוזרים למשתמשים להבין טוב יותר Copilot ב- Bing והאינטראקציות שלהם איתם. הצעות אלה כוללות הצעות צ'אט ספציפיות ליישום אחראי של בינה מלאכותית (לדוגמה, כיצד Bing משתמש בבינה מלאכותית? מדוע לא Copilot ב- Bing להגיב על נושאים מסוימים?), הסברים לגבי מגבלות, דרכים שבהן המשתמשים יכולים לקבל מידע נוסף על אופן הפעולה של המערכת ולדווח על משוב, והפניות שניתן לנווט אותן בקלות המופיעות בתגובות כדי להציג למשתמשים את התוצאות והדפים שבהם התגובות מוארות.
גילוי בינה מלאכותית. Copilot ב- Bing מספקת מספר נקודות מגע לחשיפה משמעותית של בינה מלאכותית, שבהן משתמשים יקבלו הודעה שהם מקיים אינטראקציה עם מערכת בינה מלאכותית וכן הזדמנויות לקבל מידע נוסף על Copilot ב- Bing. העצמת משתמשים באמצעות ידע זה יכולה לעזור להם להימנע מהתתמכות על בינה מלאכותית וללמוד על החוזקות והמגבלות של המערכת.
הוכחת מדיה.Microsoft Designer הפך את התכונה "אישורי תוכן" לזמינה, המשתמשת בשיטות הצפנה כדי לסמן את המקור, או "הוכחת", של כל התמונות שנוצרו על-ידי בינה מלאכותית שנוצרו ב- Designer. תכונת סימן המים הדיגיטלי הבלתי נראה מציגה את המקור, השעה והתאריך של היצירה המקורית, ולא ניתן לשנות מידע זה. הטכנולוגיה משתמשת בתקנים המוגדרים על-ידי הקואליציה עבור תוכן ואותנטיות (C2PA) כדי להוסיף שכבה נוספת של אמון ושקיפות עבור תמונות שנוצרו על-ידי בינה מלאכותית. Microsoft היא אחת מהתמיכה המשותפת של C2PA ותרמה עם טכנולוגיית הליבה של הוכחת תוכן דיגיטלי.
תנאי שימוש וקוד התנהגות. משאב זה אחראי לשימוש ב- Copilot ב- Bing. המשתמשים צריכים לעמוד בתנאי השימוש ובקוד ההתנהגות, אשר, בין שאר הדברים, מודיעים להם על שימושים בלתי מורשים ולא זמינים ואת ההשלכות של ההפרה של תנאים. תנאי השימוש גם מספקים גילויים נוספים עבור המשתמשים ומגישים חומר עזר שימושי כדי שהמשתמשים יוכלו ללמוד על Copilot ב- Bing.
תפעול ותגובה מהירה. בנוסף, Copilot ב- Bing בתהליכי הניטור והתפעול המתבצעים של Copilot ב- Bing כדי לטפל בתנאי השימוש או בקוד ההתנהגות, או מקבלים דוח, המציין שימוש לרעה או הפרות אפשריות של תנאי השימוש או קוד ההתנהגות.
משוב, ניטור ופיקוח. חוויית Copilot ב- Bing על כלים קיימים המאפשרת למשתמשים לשלוח משוב ולדווח על חששות, אשר נבדקים על-ידי צוותי התפעול של Microsoft. התהליכים התפעוליים של Bing התרחבו גם כדי להתאים לתכונות הכלולות בחוויה של Copilot ב- Bing, לדוגמה , עדכון הדף 'דווח על חשש' כדי לכלול את סוגי התוכן החדשים שהמשתמשים יוצרים בעזרת המודל.
הגישה שלנו לזיהוי, למדידה והפחתת סיכונים תמשיך להתפתח ככל שנלמד עוד, ואנו כבר משתתפים בשיפורים בהתבסס על משוב שנאסף במהלך תקופת התצוגה המקדימה.
זיהוי תוכן אוטומטי. כאשר משתמשים מעלה תמונות כחלק מהנחיה לצ'אט, Copilot ב- Bing פריסה של כלים כדי לזהות תמונות של ניצול מיני והתעללות בילדים (CSEAI), במידה רבה טכנולוגיית התאמת קוד Hash של PhotoDNA. Microsoft פיתחה את PhotoDNA כדי לעזור למצוא כפילויות של CSEAI ידוע. Microsoft מדווחת כל CSEAI נראה לעין למרכז הלאומי לילדים נעדרים ומנוצלים (NCMEC), כפי שנדרש על-ידי חוק ארצות הברית. כאשר משתמשים מעלה קבצים לניתוח או לתהליך, Copilot פורס סריקה אוטומטית כדי לזהות תוכן שעלול להוביל לסיכונים או לשימוש לרעה, כגון טקסט שעשוי להיות קשור לפעילויות לא חוקיות או לקוד זדוני.
הגנה על פרטיות
אמונתה הארוך של Microsoft שפרטיות היא זכות אנושית בסיסית דיווחה על כל שלב בפיתוח ובפריסה של Microsoft Copilot ב- Bing אישית. ההתחייבויות שלנו להגן על הפרטיות של כל המשתמשים, כולל על-ידי מתן שקיפות ושליטה בנתונים שלהם ושילוב הפרטיות באמצעות תכנון באמצעות צמצום נתונים והגבלת מטרה, הן בסיס Copilot ב- Bing. ככל שנפתח את הגישה שלנו לספק לחוויות הבינה המלאכותית הגנאית של Copilot ב- Bing, נבחן ללא הצורך כיצד להגן על הפרטיות בצורה הטובה ביותר. מסמך זה יעודכן כפי שאנו עושים זאת. מידע נוסף על האופן שבו Microsoft מגנה על פרטיות המשתמשים שלנו זמין בהצהרת הפרטיות של Microsoft.
בחוויה Copilot ב- Windows, מיומנויות Windows עשויות, כחלק מהפונקציונליות שלהן, לשתף פרטי משתמשים עם שיחת הצ'אט. הדבר כפוף לאישור משתמשים ולהנחיות ממשק משתמש מוצגות כדי לאשר את כוונת המשתמש לפני שפרטי המשתמש משותפים עם שיחת הצ'אט.
Microsoft ממשיכה לשקול את הצרכים של ילדים וצעירים כחלק מהערכות הסיכון של תכונות חדשות של בינה מלאכותית הגנטית ב- Copilot ב- Bing. כל חשבונות הילד של Microsoft שמזהים את המשתמש כגיל 13 או כפי שצוין אחרת לפי חוקים מקומיים אינם יכולים להיכנס כדי לגשת לחוויה החדשה המלאה של Bing.
כמתואר לעיל, עבור כל המשתמשים יישמנו אמצעי הגנה שמצמצם תוכן שעלול להיות מזיק. ב- Copilot ב- Bing, התוצאות מוגדרות כמו במצב קפדני של החיפוש הבטוח של Bing, הכולל את רמת ההגנה הגבוהה ביותר בחיפוש הראשי של Bing, וכך מונעות ממשתמשים, כולל משתמשים בני נוער, להיחשף לתוכן שעלול להיות מזיק. בנוסף למידע שסיפקנו במסמך זה ובשאלות הנפוצות שלנו בנוגע לתכונות הצ'אט, זמין כאן מידע נוסף על האופן שבו Copilot ב- Bing פועל כדי להימנע מתגובה לתוכן פוגע בלתי צפוי בתוצאות חיפוש.
Microsoft התחייבה לא לספק פרסום בהתאמה אישית בהתבסס על התנהגות מקוונת לילדים שתאריך הלידה שלהם בחשבון Microsoft מזהה אותם כמי שמגילם קטן מ- 18. הגנה חשובה זו תתרחב לפרסומות בתכונות Copilot ב- Bing אלה. המשתמשים עשויים לראות פרסומות הקשריות בהתבסס על השאילתה או ההנחיה המשמשת לקיום אינטראקציה עם Bing.
כדי לבטל את הפוטנציאל לשינוי בבינה מלאכותית, עלינו לבנות אמון בטכנולוגיה על-ידי העצמת אנשים כדי להבין כיצד נעשה שימוש בנתונים שלהם ולספק להם אפשרויות ופקדים בעלי משמעות על הנתונים שלהם. Copilot ב- Bing נועדה לתעדף את הסוכנות האנושית, על-ידי מתן מידע על אופן הפעולה של המוצר וכן על-ידי המגבלות שלו, ועל-ידי הרחבת אפשרויות הצרכן ופקדי הצרכן העומדים לרשותנו כדי Copilot ב- Bing אלה.
הצהרת הפרטיות של Microsoft מספקת מידע על שיטות הפרטיות השקופים שלנו להגנה על הלקוחות שלנו, ומגדירה מידע על אמצעי הבקרה שמספקים למשתמשים שלנו את היכולת להציג ולנהל את הנתונים האישיים שלהם. כדי להבטיח שלמשתמשים יש את המידע הדרוש להם כאשר הם מקיימים אינטראקציה עם תכונות השיחה החדשות של Bing, חשיפת מידע בתוך המוצר מודיעה למשתמשים שהם עוסקים במוצר בינה מלאכותית, ואנו מספקים קישורים לשאלות נפוצות והסברים נוספים לגבי אופן התמיכה של תכונות אלה. Microsoft תמשיך להאזין למשוב של המשתמשים ותוסיף פרטים נוספים על תכונות השיחה של Bing בהתאם לצורך כדי לתמוך בהבנת אופן הפעולה של המוצר.
Microsoft מספקת גם למשתמשים שלה כלים חזקים למימוש זכויותיהם על הנתונים האישיים שלהם. עבור נתונים הנאספים על-ידי Copilot ב- Bing, כולל באמצעות שאילתות והנחיות של משתמשים, לוח המחוונים של הפרטיות של Microsoft מספק למשתמשים מאומתים (מחוברים) כלים לממש את זכויות נושא הנתונים שלהם, כולל על-ידי מתן היכולת של משתמשים להציג, לייצא ולמחוק היסטוריית שיחות מאוחסנת. Microsoft ממשיכה לקבל משוב על האופן שבו הם רוצים לנהל את החוויה החדשה של Bing, כולל השימוש בחוויות ניהול נתונים בהקשר.
Copilot ב- Bing מכבדת גם בקשות תחת הזכות האירופית שנשכחו, לאחר התהליך ש- Microsoft פיתחה ומעודנת עבור פונקציונליות החיפוש המסורתית של Bing. כל המשתמשים יכולים לדווח על חששות בנוגע לתוכן ותגובות שנוצרו כאן, והמשתמשים האירופאיים שלנו יכולים להשתמש בטופס זה כדי לשלוח בקשות לחסימת תוצאות חיפוש באירופה במסגרת הזכות לשכוח.
Copilot ב- Bing יכבד את אפשרויות הפרטיות של המשתמשים, כולל אלה שבוצעו בעבר ב- Bing, כגון הסכמה לאיסוף נתונים והשימוש בהם התבקשים באמצעות כרזות ופקדים של קבצי Cookie הזמינים בלוח המחוונים של הפרטיות של Microsoft. כדי לעזור לאפשר אוטונומיות וסוכנות של משתמשים לקבל החלטות מושכלות, השתמשנו בתהליך הסקירה הפנימי שלנו כדי לבחון בקפידה את האופן שבו בחירות מוצגות למשתמשים.
בנוסף לפקדים הזמינים דרך לוח המחוונים של הפרטיות של Microsoft, המאפשר למשתמשים להציג, לייצא ולמחוק את היסטוריית החיפוש שלהם, כולל רכיבים של היסטוריית הצ'אט שלהם, משתמשים מאומתים אשר אפשרו את תכונת היסטוריית הצ'אט במוצר יכולים להציג, לגשת להיסטוריית הצ'אט ולהוריד אותה באמצעות פקדים בתוך המוצר. המשתמשים עשויים לנקות צ'אטים ספציפיים מהיסטוריית הצ'אט או לכבות את הפונקציונליות של היסטוריית הצ'אט לחלוטין בכל עת על-ידי ביקור בדף הגדרות Bing. המשתמשים יכולים גם לבחור אם לאפשר התאמה אישית לגשת לחוויה מותאמת אישית יותר עם תשובות מותאמות אישית. המשתמשים יכולים להצטרף ולבטל את ההצטרפות להתאמה אישית בכל עת בהגדרות הצ'אט בדף 'הגדרות Bing'. ניקוי צ'אטים ספציפיים מהיסטוריית הצ'אט מונע את השימוש בהם לצורך התאמה אישית. נפוצות.
מידע נוסף על היסטוריית הצ'אט וההתאמה האישית מסופק למשתמשים בשאלות Copilot ב- BingCopilot ב- Bing נבנה תוך התחשבות בפרטיות, כך שנתונים אישיים נאספים ומשמשים רק לפי הצורך ונשמרים לא יותר מהנדרש. כפי שצוין לעיל, התכונה 'חיפוש חזותי ב- Copilot ב- Bing' פורסת מנגנון שמטשטש פנים בתמונות בזמן ההעלאה על-ידי המשתמשים, כך שתמונות הפנים לא יעובדו או יאוחסנו עוד יותר. מידע נוסף על הנתונים האישיים ש- Bing אוסף, אופן השימוש בהם והאופן שבו הם מאוחסנים ונמחקים זמין בהצהרת הפרטיות של Microsoft, המספקת גם מידע על תכונות הצ'אט החדשות של Bing.
ל- Copilot ב- Bing יש מדיניות שמירה ומחיקה של נתונים כדי להבטיח שנתונים אישיים שנאספו באמצעות תכונות הצ'אט של Bing נשמרים רק לפי הצורך.
נמשיך ללמוד ולפתח את הגישה שלנו באספקת Copilot ב- Bing, וכך נמשיך לפעול בכל התחומים כדי ליישר את חדשנות הבינה המלאכותית שלנו עם ערכים אנושיים וזכויות בסיסיות, כולל הגנה על משתמשים צעירים ועל פרטיות.
Copilot עם הגנה מסחרית על נתונים
Copilot עם הגנת נתונים מסחרית, שנקראה בעבר Bing Chat Enterprise ("BCE"), הופצה על-ידי Microsoft בתצוגה מקדימה ציבורית ללא תשלום ביולי 2023 כהרחבה ללא תשלום עבור לקוחות M365 מסוימים. Copilot עם הגנה על נתונים מסחריים היא חוויה משופרת של חיפוש באינטרנט עבור משתמשי קצה ארגוניים.
בדומה Copilot ב- Bing, כאשר משתמש קצה של Copilot עם הגנת נתונים מסחרית מזין בקשה לממשק, הבקשה, השיחה המיידית, תוצאות החיפוש המובילות ו- Metaprompt נשלחים כקלט ל- LLM. המודל יוצר תגובה באמצעות היסטוריית השיחות המיידית והבקשה להקשר של הבקשה, המטה-פרוייקט כדי ליישר תגובות לעקרונות הבינה המלאכותית של Microsoft ולציפיות המשתמשים, והתוצאות של תוצאות החיפוש לתשובות מבוססות בתוכן קיים בעל דירוג גבוה מהאינטרנט. פעולה זו פועלת בדיוק כמו Copilot ב- Bing כפי שמתואר לעיל במסמך זה, למעט האפשרות Copilot עם הגנה מסחרית על נתונים מסתמכת רק על היסטוריית שיחות מיידית (לא היסטוריית שיחות אחרונה) עקב היסטוריית צ'אט מאוחסנת שלא נתמכת כעת. Designer וחיפוש חזותי זמינים כעת בגירסה זו.
כמו טכנולוגיות טרנספורמציה אחרות, נצלת היתרונות של בינה מלאכותית אינה מבוססת על סיכונים, ו חלק מרכזי בתוכנית הבינה המלאכותית האחראית של Microsoft נועד לזהות סיכונים פוטנציאליים, למדוד את ההפצה שלהם ולבנות צמצום סיכונים כדי לטפל בהם. שוב, התיאור לעיל של המאמצים של Microsoft לזהות, למדוד ולצמצם סיכונים אפשריים עבור Copilot ב- Bing חל גם על גירסה זו, עם כמה הבהרות לגבי צמצום הסיכונים המתוארים להלן:
הפצה בשלבים, הערכה מתמשכית. בדומה ל- Copilot Bing, עבור Copilot עם הגנת נתונים מסחרית, נקטנו גם בגישה של שחרור מצטבר. ב- 18 ביולי 2023, Copilot עם הגנה על נתונים מסחריים הפכה לזמינה כתצוגה מקדימה ללא תשלום עבור לקוחות ארגוניים זכאים בעלי חשבונות M365 ספציפיים להפעלה עבור משתמשי הקצה הארגוניים שלהם. שלושים (30) יום לאחר שהודיעו ללקוחות ארגוניים זכאים, Copilot עם הגנת נתונים מסחרית הפכה ל"מופעלת כברירת מחדל" עבור אותם לקוחות. בנוסף, Copilot עם הגנה מסחרית על נתונים הפך לזמין בחשבונות M365 ספציפיים של הסגל החינוכי. Copilot עם הגנה מסחרית על נתונים הפכה לזמינה באופן כללי ללקוחות ארגוניים מסוימים ב- 1 בדצמבר 2023. בעתיד, בכוונתנו להרחיב את הגישה ל- Copilot עם הגנה מסחרית על נתונים כדי לאפשר למשתמשים Microsoft Entra מזהה יותר.
תנאי שימוש וקוד התנהגות. משתמשי קצה של Copilot עם הגנה מסחרית על נתונים חייבים לציית לתנאי השימוש של משתמש הקצה. תנאי שימוש אלה מודיעים למשתמשי קצה על שימושים מתינים שאינה מזערית ואת ההשלכות של ההפרה של תנאים.
תפעול ותגובה מהירה. אנו משתמשים גם Copilot ב- Bing הפיקוח המתמשך והתהליכים התפעוליים כדי לטפל כאשר Copilot עם הגנה מסחרית על נתונים מקבלים אותות, או מקבלים דוח, המציין שימוש לרעה או הפרות אפשריות של תנאי השימוש למשתמשי הקצה.
משוב, ניטור ופיקוח. Copilot עם הגנה מסחרית על נתונים משתמש באותו כלי כמו Copilot ב- Bing כדי שמשתמשים יוכלו לשלוח משוב ולדווח על חששות, אשר נבדקים על-ידי צוותי הפעולות של Microsoft. Copilot ב- Bing התפעוליים של Copilot ב- Bing התרחבו גם כדי להכיל את התכונות בתוך Copilot עם חוויות מסחריות של הגנה על נתונים, לדוגמה, עדכון הדף 'דווח על חשש' כדי לכלול את סוגי התוכן החדשים שמשתמשים יוצרים בעזרת המודל.
כדי להבטיח שלמשתמשי קצה יהיה את המידע הדרוש להם כאשר הם מקיים אינטראקציה עם Copilot עם הגנה מסחרית על נתונים, קיים תיעוד מוצר זמין בתחתית מסמך זה, כולל שאלות נפוצות ודפים למידע נוסף.
הנחיות ותגובות שנוצרו על-ידי משתמשי קצה ב- Copilot עם הגנה על נתונים מסחריים מעובדים ונחסנים בהתאם לתקנים של טיפול בנתונים ארגוניים. ה- Copilot עם הצעה מסחרית להגנה על נתונים זמינה בשלב זה רק ללקוחות ארגוניים ולמשתמשי הקצה המבוגרים המורשים שלהם, ולכן איננו צופים וילדים או צעירים להיות משתמשי קצה של Copilot עם הגנת נתונים מסחרית בשלב זה. בנוסף, Copilot עם הגנה מסחרית על נתונים אינה מספקת פרסום ממוקד התנהגותי למשתמשי קצה. במקום זאת, כל הפרסומות המוצגות הן רק פרסומות רלוונטיות בהקשר.
מידע נוסף
מסמך זה מהווה חלק ממאמץ נרחב יותר ב- Microsoft לתרגל את עקרונות הבינה המלאכותית שלנו. לקבלת מידע נוסף, ראה:
הגישה של Microsoft ליישום אחראי של בינה מלאכותית
תקן הבינה המלאכותית האחראית של Microsoft
משאבי הבינה המלאכותית האחראית של Microsoft
קורסי Microsoft Azure Learning בנושא יישום אחראי של בינה מלאכותית
אודות מסמך זה
© 2023 Microsoft. כל הזכויות שמורות. מסמך זה מסופק "כפי שהוא" ול למטרות מידע בלבד. מידע ותצוגות המבוטאים במסמך זה, כולל כתובת URL והפניות אחרות לאתרי אינטרנט, עשויים להשתנות ללא הודעה מוקדמת. הסיכון בשימוש בתוכנה הוא באחריותך. דוגמאות מסוימות מיועדות לאיור בלבד והן מדוגמאות. שיוך אמיתי אינו מיועד או נגזר.