דלג לתוכן הראשי
היכנס דרך Microsoft
היכנס או צור חשבון.
שלום,
בחר חשבון אחר.
יש לך חשבונות מרובים
בחר את החשבון שברצונך להיכנס באמצעותו.

עדכון אחרון: פברואר 2024

היסודות של Copilot ב- Bing   

מבוא  

בפברואר 2023, Microsoft השקה את Bing החדש, חוויה משופרת של חיפוש באינטרנט באמצעות בינה מלאכותית. הוא תומך במשתמשים על-ידי סיכום תוצאות חיפוש באינטרנט ומתן חוויית צ'אט. המשתמשים יכולים גם להפיק תוכן יצירתי, כגון שירים, בדיחות, סיפורים, וכן באמצעות Bing יוצר התמונות, תמונות. Bing החדש המשופר באמצעות בינה מלאכותית פועל במגוון טכנולוגיות מתקדמות של Microsoft ו- OpenAI, כולל GPT-4, מודל שפה גדול (LLM) ו- DALL-E, מודל למידה עמוקה ליצירת תמונות דיגיטליות בתיאורים של שפה טבעית, שתיהן מ- OpenAI. עבדנו עם שני המודלים במשך חודשים לפני ההפצה הציבורית כדי לפתח קבוצה מותאמת אישית של יכולות וטכניקות כדי להצטרף לטכנולוגיית בינה מלאכותית מתקדמת זו ולחיפוש באינטרנט ב- Bing החדש.  בנובמבר 2023, Microsoft ש שמה את השם החדש של Bing ל- Copilot ב- Bing.

אנו ב- Microsoft לוקחים ברצינות את המחויבות שלנו ליישום אחראי של בינה מלאכותית. החוויה של Copilot ב- Bing פותחה בקנה אחד עם עקרונות הבינה המלאכותית של Microsoft, תקן הבינה המלאכותית האחראית של Microsoft ובשותפות עם מומחי בינה מלאכותית אחראיים ברחבי החברה, כולל ה- Office ליישום אחראי של בינה מלאכותית של Microsoft, צוותי ההנדסה שלנו, Microsoft Research ו- Aether. כאן ניתן לקבל מידע נוסף על יישום אחראי של בינה מלאכותית ב- Microsoft.  

במסמך זה, מתארים את הגישה שלנו ליישום אחראי של בינה מלאכותית ל- Copilot ב- Bing. לפני ההפצה, אימצנו שיטות מתקדמות לזיהוי, למדוד ולצמצם סיכונים פוטנציאליים ושימוש לרעה במערכת, ולהבטחת היתרונות שלה עבור המשתמשים. המשכנו לפתח את Copilot ב- Bing מאז ההפצה הראשונה, המשכנו גם ללמוד ולשפר את המאמצים שלנו ליישום אחראי של בינה מלאכותית. מסמך זה יתעדכן מעת לעת כדי להעביר את התהליכים והשיטות המתפתחים שלנו.   

מונחים עיקריים  

Copilot ב- Bing הוא חוויה משופרת של חיפוש באינטרנט. כאשר היא פועלת על טכנולוגיה חדשה רבת-עוצמה, אנחנו מתחילים בהתקנת כמה מונחים עיקריים.  

מודלים של למידת מכונה שמסייעים למיין נתונים לכיתות או לקטגוריות מידע עם תוויות. ב- Copilot ב- Bing, דרך אחת שבה אנו משתמשים מסווגים היא לזהות תוכן שעלול להיות מזיק שנשלח על-ידי משתמשים או שנוצר על-ידי המערכת כדי לצמצם את הדור של תוכן זה ולהשתמש לרעה במערכת או להשתמש בה לרעה. 

Copilot ב- Bing מוארק בתוצאות חיפוש באינטרנט כאשר המשתמשים מחפשים מידע. משמעות הדבר היא שאנו מרכזים את התגובה שסופקה לשאילתה של משתמש או לבקשה לגבי תוכן בעל דירוג גבוה מהאינטרנט, ואנו מספקים קישורים לאתרי אינטרנט כדי שהמשתמשים יוכלו לקבל מידע נוסף. Bing מדרג תוכן חיפוש באינטרנט על-ידי תכונות משקל כבדות כגון רלוונטיות, איכות ואמינות ורנון. אנחנו מתארים מושגים אלה בפירוט רב יותר באופן האופן בו Bing מספק תוצאות חיפוש (ראה "איכות ואמינות" ב"כיצד Bing מדרג תוצאות חיפוש").   

אנו מחשיבים תגובות מקורקעות לתגובות מ- Copilot ב- Bing שבהן הצהרות נתמכות על-ידי מידע הכלול במקורות קלט, כגון תוצאות חיפוש באינטרנט מהשאילתה או מהבקשה, מידע מפורט של Bing Knowledge Base, וכן עבור חוויית הצ'אט, היסטוריית שיחות אחרונה בצ'אט. תגובות לא מוארות הן אלה שבהן משפט אינו מוארק במקורות קלט אלה.  

מודלי שפה גדולים (LLMs) בהקשר זה הם מודלים של בינה מלאכותית שמוכשמים בכמויות גדולות של נתוני טקסט לחיזוי מילים ברצף. ל- LLMs יש אפשרות לבצע מגוון משימות, כגון יצירת טקסט, סיכום, תרגום, סיווג ועוד.  

המטה-הגנה היא תוכנית המשמשת להדריך את אופן הפעולה של המערכת. חלקים של המטה-הגנה מסייעים ביישור אופן הפעולה של המערכת לעקרונות הבינה המלאכותית של Microsoft ולציפיות המשתמשים. לדוגמה, המטה-הגנה עשוי לכלול שורה כגון "נהל תקשורת בשפת הבחירה של המשתמש".  

שיטה או שילוב של שיטות שנועדו להפחית סיכונים פוטנציאליים שעלולים להתעורר משימוש בתכונות מונחות בינה מלאכותית ב- Copilot ב- Bing.  

טקסט, קול, תמונות ו/או שאילתות מותאמות אחרות שמשתמש שולח ל- Bing כקלט למודל ההנע חוויות דורקטיביות חדשות המבוססות על בינה מלאכותית ב- Bing. לדוגמה, משתמש עשוי להזין את הבקשה הבאה:  

"אני מתכנן טיול ליום השנה שלנו בספטמבר. מהם כמה מקומות שאנחנו יכולים לנסוע בהם במרחק של 3 שעות טיסה מלונדון הית'רו?”  

הטקסט שמשתמש שולח ל- Bing מסרגל החיפוש לחיפוש באינטרנט. במסמך זה, אנו מבחבחים בין שאילתה (עבור חיפוש באינטרנט) לבקשה (עבור חוויות דורקטיביות מונחות בינה מלאכותית ב- Bing). לדוגמה, משתמש עשוי להזין את השאילתה הבאה כדי לחפש באינטרנט:  

"נמל התעופה לונדון הית'רו"  

טכניקות המשמשות מומחים כדי להעריך את המגבלות והפגיעות של מערכת ולבחון את היעילות של צמצום סיכונים מתוכנן. בדיקות צוות אדומות ובדיקות מאמץ משמשות לזיהוי סיכונים פוטנציאליים, והן נפרדות מדידה מערכתית של סיכונים.   

הטקסט, התמונה, התרשימים וכו', ש- Copilot ב- Bing יפלט בתגובה לבקשה. מילים נרדפות עבור "תגובה" כוללות את המילים "completion", "generation" ו- "answer". לדוגמה, Bing עשוי לספק את התגובה הבאה לבקשה שבה השתמשנו בהגדרה של 'בקשה' לעיל:   

"ברכות ליום השנה שלך! ישנם מקומות רבים שאתה יכול ללכת כי הם בתוך טיסה של 3 שעות מלונדון הית'רו. לפי מקור אחד, חלק מבריחות סוף השבוע בתוך שלוש שעות במטוס מלונדון הם בילבאו, קופנהגן, רייקיאוויק ושטוקהולם 1, 2. מקור אחר מציע כמה מהמקומות הטובים ביותר ללכת באירופה בספטמבר הם קרקוב, פירנצה, ליסבון 3, 4. תוכל גם לבדוק את טיסות ישירות מלונדון הית'רו ליעדים שונים ולראות מה מושך אותך 5. אני מקווה שיהיה לך טיול נפלא!”  

שימושים ייעודיים וחוויות חדשות של בינה מלאכותית  

השימושים המיועדים של Bing ב- Bing הם חיבור משתמשים לתוצאות חיפוש רלוונטיות, סקירת תוצאות מכל רחבי האינטרנט כדי למצוא ולסכם תשובות שהמשתמשים מחפשים, לעזור למשתמשים למקד את המחקר שלהם כדי לקבל תשובות באמצעות חוויית צ'אט ולציצו יצירתיות בכך שהם עוזרים למשתמשים ליצור תוכן. Copilot בחוויות הבינה המלאכותית הגנטית של Bing להלן תומכות ביעד של טייסת-משנה מבוססת בינה מלאכותית באינטרנט.  

סיכום סיכום. כאשר משתמשים שולחים שאילתת חיפוש ב- Copilot ב- Bing, מערכת Bing מעבדת את השאילתה, מבצעת חיפוש אינטרנט אחד או יותר ומשתמשת בתוצאות החיפוש המובילות באינטרנט כדי ליצור סיכום של המידע להצגה למשתמשים. סיכומי קבצים אלה כוללים הפניות כדי לעזור למשתמשים לראות את תוצאות החיפוש המשמשות כדי לעזור להסלים את הסיכום ולגשת אותן בקלות. סיכומי עשויים להופיע בצד השמאלי של דף תוצאות החיפוש ו בתוך חוויית הצ'אט.  

חוויית צ'אט. בנוסף לסיכום, המשתמשים יכולים לשוחח בצ'אט עם Copilot במערכת Bing באמצעות קלט טקסט, תמונה או קול, לשאול שאלות המשך טיפול כדי להבהיר חיפושים ולחפש מידע חדש ולשלוח בקשות ליצירת תוכן יצירתי. הפניות נכללות גם בחוויה של הצ'אט כאשר Copilot ב- Bing מסכם את תוצאות החיפוש בתגובה.   

יצירת תוכן יצירתי. הן את חוויית הצ'אט והן בדף החיפוש, המשתמשים יכולים ליצור שירים, בדיחות, סיפורים, תמונות ותוכן אחר בעזרת Copilot ב- Bing.  תמונות נוצרות על-ידי Designer (לשעבר Bing יוצר התמונות), והמשתמשים יכולים לגשת לתכונה באמצעות Designer הבית וכן בדף Copilot. 

כיצד פועל Copilot ב- Bing?  

בעזרת Copilot ב- Bing, פיתחנו גישה חדשנית להוספת הודעות מיידיות מתקדמות לחיפוש באינטרנט. כאשר משתמש מזין בקשה ב- Copilot ב- Bing, הבקשה, היסטוריית השיחות האחרונה, המטה-הגנה והתוצאות המובילות של החיפוש נשלחות כקלט ל- LLM. המודל יוצר תגובה באמצעות בקשת המשתמש והיסטוריית השיחות האחרונה כדי ליצור הקשר עם הבקשה, המטה-הגנה כדי ליישר תגובות עם עקרונות הבינה המלאכותית של Microsoft וציפיות המשתמשים, והתוצאות של תוצאות החיפוש לתשובות בסיסיות בתוכן קיים בעל דירוג גבוה מהאינטרנט.   

תגובות מוצגות למשתמשים בכמה תבניות שונות, כגון קישורים מסורתיים לתוכן אינטרנט, סיכומי בינה מלאכותית, תמונות ותגובות לצ'אט. סיכומי סיכום ותגובות צ'אט שנוסתות על תוצאות חיפוש באינטרנט יכללו הפניות וסעיף "מידע נוסף" מתחת לתגובות, עם קישורים לתוצאות החיפוש ששימשו להקרקעת התגובה. המשתמשים יכולים ללחוץ על קישורים אלה כדי לקבל מידע נוסף על נושא ועל המידע המשמש להקרקע את הסיכום או את תגובת הצ'אט.    

בחוויה של Copilot, המשתמשים יכולים לבצע חיפושים באינטרנט באמצעות שיחה על-ידי הוספת הקשר לבקשה שלהם ואינטראקציה עם תגובות המערכת כדי לציין עוד יותר את תחומי העניין שלהם לחיפוש. לדוגמה, משתמש עשוי לשאול שאלות המשך טיפול, לבקש מידע הבהרה נוסף או להגיב למערכת באופן שיחה. בחוויה של הצ'אט, המשתמשים יכולים גם לבחור תגובה מהצעות כתובות מראש, שאנו קוראים לה הצעות צ'אט. לחצנים אלה מופיעים לאחר כל תגובה מ- Copilot ומספקים הנחיות מוצעות כדי להמשיך את השיחה בתוך חוויית הצ'אט. הצעות צ'אט מופיעות גם לצד תוכן מסוכם בדף תוצאות החיפוש כנקודת כניסה עבור חוויית הצ'אט.  

Copilot ב- Bing גם מאפשר למשתמש ליצור סיפורים, שירים, מילות שירים ותמונות בעזרת Bing. כאשר Copilot ב- Bing מזהה כוונה של משתמש ליצור תוכן יצירתי (לדוגמה, הבקשה מתחילה ב- "write me a ..."), המערכת, ברוב המקרים, תפיק תוכן שמגיב לבקשה של המשתמש. באופן דומה, כאשר Copilot ב- Bing מזהה כוונה של משתמש ליצור תמונה (לדוגמה, הבקשה מתחילה ב"צייר לי ..."), המערכת, ברוב המקרים, תפיק תמונה שתגיב לבקשה של המשתמש. בחוויה של חיפוש חזותי בצ'אט, עם תמונה שצולמה על-ידי מצלמת המשתמש, שהועלה מהמכשיר של המשתמש או המקושרת מהאינטרנט, המשתמשים יכולים לבקש מ- Copilot ב- Bing להבין את ההקשר, לפרש ולהענה על שאלות לגבי התמונה.  המשתמשים יכולים גם להעלות את הקבצים שלהם ל- Copilot כדי לפרש, להמיר, לעבד או לחשב מהם מידע. בחוויה Microsoft Designer שמשתמשים יכולים לגשת אליה באמצעות Copilot ב- Bing, המשתמשים יכולים לא רק ליצור תמונות באמצעות הנחיות, אלא גם לשנות את גודלן או לשנות את גודלן, או לבצע פעולות עריכה כגון טשטוש רקע או הפיכת צבעים לצבעים מלאי חיים יותר. 

למשתמשים בעלי חשבונות Microsoft (MSA) יש כעת גם אפשרות להירשם כמנוי ל- Copilot Pro המציעה חוויה משופרת, כולל ביצועים מואצים, יצירת תמונה מהירה יותר של בינה מלאכותית ובקרוב היכולת ליצור אובייקטי GGPT משלך של Copilot. Copilot Pro זמינה כעת במדינות מוגבלות, ובכוונתנו להפוך את Copilot Pro לזמין בשווקים נוספים בקרוב.

בחוויה של Copilot, המשתמשים יכולים לגשת ל- GGPTs של Copilot. Copilot GPT, כגון Designer GPT, היא גירסה מותאמת אישית של Microsoft Copilot בנושא שמעניינת אותך במיוחד, כגון כושר, נסיעות ותפריט בישול, שעשויה לעזור להפוך רעיונות מעורפלים או כלליים להנחיות ספציפיות יותר עם פלטים, כולל טקסטים ותמונות. משתמשי Copilot יכולים לראות קבצי GGP זמינים של Copilot, ומשתמשים בעלי חשבונות Copilot Pro יתקבל בקרוב גישה ל- Copilot GPT Builder, תכונה המאפשרת למשתמשים ליצור ולקבוע תצורה של Copilot GPT מותאם אישית. צמצום הסיכונים ליישום אחראי של בינה מלאכותית המוזכר לעיל ב- Copilot ב- Bing חלים על כרטיסי GGPT של Copilot.

לקבלת מידע נוסף על האופן Copilot Pro אובייקטי ה- GGPT של Copilot, בקר כאן.

Copilot ב- Bing שואפת לספק תוצאות חיפוש מגוונות ומקיפות עם המחויבות שלה לגישה חופשית ופתוחה למידע. בו-זמנית, המאמצים שלנו לאיכות המוצר כוללים עבודה כדי למנוע קידום בשוגג של תוכן שעלול להיות מזיק למשתמשים. מידע נוסף על האופן שבו Bing מדרג תוכן, כולל האופן שבו הוא מגדיר רלוונטיות ואת האיכות והאמינות של דף אינטרנט, זמין ב"קווים מנחים למנהלי אתרים של Bing".   מידע נוסף על עקרונות צוני התוכן של Bing זמין ב"כיצד Bing מספק תוצאות חיפוש".   

זיהוי, מדידה והפחתת סיכונים  

כמו טכנולוגיות טרנספורמציה אחרות, נצלת היתרונות של בינה מלאכותית אינה מבוססת על סיכונים, ו חלק מרכזי בתוכנית הבינה המלאכותית האחראית של Microsoft נועד לזהות סיכונים פוטנציאליים, למדוד את ההפצה שלהם ולבנות צמצום סיכונים כדי לטפל בהם. במדריכים של עקרונות הבינה המלאכותית שלנו ותקן הבינה המלאכותית שלנו ליישום אחראי, ביקשנו לזהות, למדוד ולצמצם סיכונים פוטנציאליים ולהשתמש לרעה ב-Copilot ב- Bing תוך אבטחת השימושים המנווניים וההטבה שהחוויה החדשה מספקת. בסעיפים הבאים אנו מתארים את הגישה האיטרטיבית שלנו לזיהוי, מדידת סיכונים פוטנציאליים והפחתתם.   

ברמת המודל, העבודה שלנו התחילה עם ניתוחים גישוש של GPT-4 בסוף הקיץ של 2022. הדבר כלל ביצוע בדיקות נרחבות של צוות אדום בשיתוף פעולה עם OpenAI. בדיקה זו תוכננה כדי להעריך כיצד הטכנולוגיה העדכנית ביותר ת לפעול ללא כל אמצעי הגנה נוספים שחלים עליה. הכוונה הספציפית שלנו בשלב זה הייתה ליצור תגובות מזיקות, להציג שדרות פוטנציאליות לשימוש לרעה ולזהות יכולות ומגבלות. הלמידה המשולבת שלנו ברחבי OpenAI ו- Microsoft תרמה להתקדמות בפיתוח מודלים, ובבשבילנו ב- Microsoft, הודיעו לנו על ההבנה של סיכונים ותרמו לאסטרטגיות צמצום סיכונים מוקדם עבור Copilot ב- Bing.  

בנוסף לבדיקת צוות אדום ברמת המודל, צוות רב תחומי של מומחים ערך סבבים רבים של בדיקות צוות אדום ברמת היישום ב- Copilot ב- Bing AI לפני הפיכתם לזמינים לציבור בתצוגה המקדימה של ההפצה המוגבלת שלנו. תהליך זה עזר לנו להבין טוב יותר כיצד ניתן לנצל את המערכת על-ידי שחקני תואר הפועל ולשפר את צמצום הסיכונים. בודקי לחץ שאינם תואר הפועלים גם העריכו בהרחבה תכונות חדשות של Bing עבור פגיעות וקצרות. לאחר ההפצה, חוויות הבינה המלאכותית החדשות ב- Bing משולבות בתשתית הקיימת של מדידת ייצור ובדיקות של ארגון Bing. לדוגמה, בודקי צוות אדומים מאזורים שונים ומרקעים שונים מנסים באופן שיטתי לסכן את המערכת, וממצאיהם משמשים להרחבת ערכות הנתונים המשמשות את Bing לשיפור המערכת.  

בדיקות צוות אדומות ובדיקות מאמץ יכולות להציג מופעים של סיכונים ספציפיים, אך בקרב משתמשי הייצור יהיו מיליוני סוגים שונים של שיחות עם Copilot ב- Bing. בנוסף, שיחות הן רב-סיבוביות והקשריות, וזיהוי תוכן מזיק בתוך שיחה היא משימה מורכבת. כדי להבין ולתמודד טוב יותר עם הפוטנציאל לסיכונים ב- Copilot בחוויות Bing AI, פיתחנו מדדים נוספים ליישום אחראי של בינה מלאכותית הספציפיים לחוויות החדשות של בינה מלאכותית למדידת סיכונים פוטנציאליים כגון שבבירות מהכלא, תוכן מזיק ותוכן לא מואר. בנוסף, הפעלנו מדידה בקנה מידה בקנה מידה באמצעות קווי צינור אוטומטיים חלקית של מדידה. בכל פעם שה מוצר משתנה, צמצום סיכונים קיימים מתעדכן או צמצום סיכונים חדש מוצע, אנו מעדכנים את קווי הצינור של המדידה כדי להעריך הן את ביצועי המוצר והן את מדדי הבינה המלאכותית האחראית.  

כדוגמה אילוסטרציה, קו צינור המידה האוטומטי החלקי המעודכן עבור תוכן מזיק כולל שני חידושים עיקריים: הדמיות שיחה וביאור אוטומטי של שיחה שאומתה על-ידי בני אדם. תחילה, מומחי בינה מלאכותית אחראית בנו תבניות לתיעד המבנה והתוכן של שיחות שעלולות לגרום לסוגים שונים של תוכן מזיק. תבניות אלה ניתנו לאחר מכן לסוכן שיחה אשר קיים אינטראקציה כמשתמש היפותטי עם Copilot ב- Bing, היוצר שיחות מדומה. כדי לזהות אם שיחות מדומה אלה הכילו תוכן מזיק, השתמשנו בקווים מנחים המשמשים בדרך כלל את המומחים הפתולוגים כדי לתייג נתונים ושינו אותם לשימוש על-ידי GPT-4 כדי לתייג שיחות בקנה מידה רחב, תוך שיפור הקווים המנחים עד שהיה הסכם משמעותי בין שיחות עם תוויות מודל ושיחות עם תוויות אנושיות. לבסוף, השתמשנו בשיחות עם תוויות המודל לחישוב מדד של יישום אחראי של בינה מלאכותית הלוכד את היעילות של Copilot ב- Bing בהפחתת תוכן מזיק.   

קווי הצינור של המידות מאפשרים לנו לבצע מדידה במהירות עבור סיכונים פוטנציאליים בקנה מידה גדול. כאשר אנו מזהים בעיות חדשות במהלך תקופת התצוגה המקדימה ובבדיקה המתמשכת של הצוות האדום, אנו ממשיכים להרחיב את ערכות המידה כדי להעריך סיכונים נוספים.  

כאשר זיהינו סיכונים פוטנציאליים ולהשתמש לרעה בתהליכים כמו בדיקות צוות אדומות ובדיקות מתח ומדדנו אותם עם הגישות החדשניות המתוארות לעיל, פיתחנו צמצום סיכונים נוסף לאלה המשמשים לחיפוש מסורתי. להלן, אנו מתארים כמה מסיכונים אלה. נמשיך לנטר את Copilot בחוויות Bing AI לשפר את ביצועי המוצרים ואת צמצום הסיכונים.  

הפצה בשלבים, הערכה מתמשכית. אנו מחויבים ללמוד ולשפר את הגישה שלנו ליישום אחראי של בינה מלאכותית באופן רציף ככל שהטכנולוגיות וההתפתחות של המשתמשים מתפתחים. אסטרטגיית ההפצה המצטברת שלנו היא חלק מרכזי באופן העברת הטכנולוגיה שלנו בבטחה מהמעבדות לעולם, ואנו מחויבים לתהליך מחושב ומבוקר לאבטח את היתרונות של Copilot ב- Bing. הגבלת מספר האנשים בעלי גישה במהלך תקופת התצוגה המקדימה אפשרה לנו לגלות כיצד אנשים משתמשים ב- Copilot ב- Bing, כולל האופן בו אנשים עלולים לעשות בו שימוש לרעה, כדי שנוכל לנסות לצמצם בעיות מתפתחות לפני ההפצה הרחבה יותר. לדוגמה, אנו דורשים מהמשתמשים לבצע אימות באמצעות חשבון Microsoft שלהם לפני שאנו ניגשים לחוויה החדשה המלאה של Bing. משתמשים לא מאומתים יכולים לגשת לתצוגה מקדימה מוגבלת בלבד של החוויה. שלבים אלה למנוע שימוש לרעה ולעזור לנו (לפי הצורך) לבצע פעולה מתאימה בתגובה להפרות של קוד ההתנהגות.  אנו בוצעו שינויים ב- Copilot ב- Bing מדי יום כדי לשפר את ביצועי המוצר, לשפר צמצום סיכונים קיימים וליישם צמצום סיכונים חדש בתגובה ללמידה שלנו במהלך תקופת התצוגה המקדימה.  

הארתקעות בתוצאות החיפוש. כפי שצוין לעיל, Copilot ב- Bing נועד לספק תגובות הנתמכות על-ידי המידע בתוצאות חיפוש באינטרנט כאשר משתמשים מחפשים מידע. לדוגמה, המערכת מסופקת עם טקסט מתוך תוצאות החיפוש המובילות והוראות באמצעות Metaprompt כדי להקרקע את התגובה שלו. עם זאת, בסיכום תוכן מהאינטרנט, Copilot ב- Bing עשוי לכלול מידע בתגובה שלו שאינו נמצא במקורות הקלט שלו. במילים אחרות, הוא עשוי להביא לתוצאות לא מוארכות. ההערכות המוקדמות שלנו ציינו שהתוצאות הלא מוארות בצ'אט עשויות להיות נפוצות יותר עבור סוגים מסוימים של בקשות או נושאים מאשר אחרים, כגון בקשה לחישובים מתמטיים, מידע פיננסי או מידע שוק (לדוגמה, רווחים מהחברה, נתוני ביצועי מניות) ומידע כגון תאריכי אירועים מדויקים או מחירים ספציפיים של פריטים. המשתמשים צריכים תמיד לנקוט משנה זהירות ולהשתמש בשיקול דעת מיטבי בעת הצגת תוצאות חיפוש מסוכמת, בין אם בדף תוצאות החיפוש או בחוויה של הצ'אט. נקטנו בכמה אמצעים כדי לצמצם את הסיכון שמשתמשים עשויים להשתמש בתוכן שלא מוארק יתר על כנו בתרחישי סיכום ובחוויות צ'אט. לדוגמה, תגובות ב- Copilot ב- Bing המבוססות על תוצאות חיפוש כוללות הפניות לאתרי המקור כדי שמשתמשים יוכלו לאמת את התגובה וללמוד עוד. משתמשים ניתנים גם עם הודעה מפורשת שהם מקיים אינטראקציה עם מערכת בינה מלאכותית, ונעצים לבדוק את חומרי המקור של תוצאות האינטרנט כדי לעזור להם להשתמש בשיקול דעתם הטוב ביותר.  

מסווגים מבוססי בינה מלאכותית ומט-הגנה כדי לצמצם סיכונים פוטנציאליים או שימוש לרעה. השימוש ב- LLMs עלול לגרום לתוכן בעייתי שעלול להוביל לסיכונים או לשימוש לרעה. דוגמאות יכולות לכלול פלט הקשור לפגיעה עצמית, אלימות, תוכן גרפי, קניין רוחני, מידע לא מדויק, דיבור שונא או טקסט שעשוי להיות קשור לפעילויות בלתי חוקיות. מסווגים ומטא-הגנה הם שתי דוגמאות של צמצום סיכונים שהושמו ב- Copilot ב- Bing כדי לסייע בהפחתת הסיכון לסוגי תוכן אלה. מסווגים מסווגים טקסט כדי לסמן סוגים שונים של תוכן שעלול להיות מזיק בשאילתות חיפוש, בקשות צ'אט או תגובות שנוצרו. Bing משתמש בסיווגים ובמסנן תוכן המבוססים על בינה מלאכותית, החלים על כל תוצאות החיפוש והתכונות הרלוונטיות; עיצבנו מסווגי בקשות ומסנני תוכן נוספים באופן ספציפי כדי לטפל בסיכונים אפשריים שהועלה על-ידי Copilot בתכונות Bing. דגלים מובילים לצמצום סיכונים פוטנציאליים, כגון אי-החזרת תוכן שנוצר למשתמש, העברת המשתמש לנושא אחר או ניתוב מחדש של המשתמש לחיפוש מסורתי. חילוף החומרים כולל מתן הוראות למודל להדריך את אופן הפעולה שלו, כולל כך שהמערכת מתנהגת בהתאם לעקרונות הבינה המלאכותית ולציפיות המשתמשים של Microsoft. לדוגמה, המטה-הגנה עשוי לכלול שורה כגון "נהל תקשורת בשפת הבחירה של המשתמש".   

הגנה על פרטיות בחיפוש חזותי ב- Copilot ב- Bing. כאשר משתמשים מעלה תמונה כחלק מהנחיה שלהם לצ'אט, Copilot ב- Bing משתמש בטכנולוגיה טשטוש פנים לפני שליחת התמונה למודל הבינה המלאכותית. טשטוש פנים משמש כדי להגן על הפרטיות של אנשים בתמונה. הטכנולוגיה הטשטוש בפנים מסתמכת על רמזים תלויי הקשר כדי לקבוע היכן לטשטש ולטשטש את כל הפרצופים. כאשר הפנים מטושטשים, מודל הבינה המלאכותית עשוי להשוות את התמונה המוזנת לאלה של תמונות הזמינות לציבור באינטרנט. כתוצאה מכך, לדוגמה, Copilot ב- Bing עשוי להיות מסוגל לזהות שחקן כדורסל מפורסם מתמונה של שחקן זה במגרש כדורסל על-ידי יצירת ייצוג מספרי המשקף את מספר הג'רזי של השחקן, צבע ג'רזי, הנוכחות של חישוק כדורסל וכו'. Copilot ב- Bing אינו מאחסן ייצוגים מספריים של אנשים מתוך תמונות שהועלו, והוא אינו משתף אותם עם ספקים חיצוניים. Copilot ב- Bing משתמש בייצוגים מספריים של התמונות שמשתמשים מעלה רק למטרת מענה להנחיות של משתמשים, ולאחר מכן הם נמחקים תוך 30 יום לאחר סיום הצ'אט.    

אם המשתמש מבקש מ- Copilot ב- Bing מידע אודות תמונה שהועלה, תגובות הצ'אט עשויות לשקף את ההשפעה של טשטוש פנים על היכולת של המודל לספק מידע על התמונה שהועלה. לדוגמה, Copilot ב- Bing עשוי לתאר מישהו כבעל פנים מטושטשות.    

מגביל סחף של שיחות. במהלך תקופת התצוגה המקדימה למדנו כי הפעלות צ'אט ארוכות מאוד יכולות לגרום לתגובות שחוזרות על עצמן, לא מועילות או לא תואמות ל- Copilot בטון המיועד של Bing. כדי לטפל בסחף שיחה זה, הגבילו את מספר הפניות (החליפיות המכילות הן שאלת משתמש והן תשובה מ- Copilot ב- Bing) לכל הפעלת צ'אט. אנו ממשיכים להעריך גישות נוספות כדי לצמצם בעיה זו.  

העשרת הנחיה. במקרים מסוימים, הבקשה של משתמש עשויה להיות חד-משמעית. במקרה כזה, Copilot ב- Bing עשוי להשתמש ב- LLM כדי לסייע בבנייה של פרטים נוספים בהנחיה כדי להבטיח שהמשתמשים יקבלו את התגובה שהם מחפשים. העשרת הנחיה כזו אינה מסתה בידע של המשתמש או בחיפושים שבהם הוא היה קודם, אלא במודל הבינה המלאכותית. שאילתות מתוקנת אלה יהיו גלויות בהיסטוריית הצ'אט של המשתמש, ו, כמו חיפושים אחרים, ניתן למחוק באמצעות פקדים בתוך המוצר.  

התערבות של עיצוב וחוויה של משתמש המרכז על-ידי המשתמש. חוויות עיצוב ומשתמשים המרכזות על-ידי המשתמש הן היבט חיוני של הגישה של Microsoft ליישום אחראי של בינה מלאכותית. המטרה היא לשורש עיצוב המוצר בצרכים ובציפיות של המשתמשים. כאשר משתמשים מקיימים אינטראקציה עם Copilot ב- Bing בפעם הראשונה, אנו מציעים נקודות מגע שונות שנועדו לעזור להם להבין את היכולות של המערכת, לחשוף בפניהם ש- Copilot ב- Bing מופעל על-ידי בינה מלאכותית, ולנהל תקשורת עם מגבלות. החוויה נועדה באופן זה כדי לעזור למשתמשים להפיק את המרב מ- Copilot ב- Bing ולמזער את הסיכון של תדירות יתר. רכיבים של החוויה גם עוזרים למשתמשים להבין טוב יותר את Copilot ב- Bing ואת האינטראקציות שלהם איתו. הצעות אלה כוללות הצעות צ'אט ספציפיות ליישום אחראי של בינה מלאכותית (לדוגמה, כיצד Bing משתמש בבינה מלאכותית? מדוע Copilot ב- Bing אינו מגיב בנושאים מסוימים?), הסברים לגבי מגבלות, דרכים שבהן המשתמשים יכולים לקבל מידע נוסף על אופן הפעולה של המערכת ולדווח על משוב, והפניות שניתן לנווט אותן בקלות המופיעות בתגובות כדי להציג למשתמשים את התוצאות והדפים שבהם מבוססות התגובות.  

גילוי בינה מלאכותית. Copilot ב- Bing מספק מספר נקודות מגע לחשיפה משמעותית של בינה מלאכותית, שבהן משתמשים יקבלו הודעה שהם מקיים אינטראקציה עם מערכת בינה מלאכותית וכן הזדמנויות לקבל מידע נוסף על Copilot ב- Bing. העצמת משתמשים באמצעות ידע זה יכולה לעזור להם להימנע מהתתמכות על בינה מלאכותית וללמוד על החוזקות והמגבלות של המערכת.  

הוכחת מדיה.Microsoft Designer הפך את התכונה "אישורי תוכן" לזמינה, המשתמשת בשיטות הצפנה כדי לסמן את המקור, או "הוכחת", של כל התמונות שנוצרו על-ידי בינה מלאכותית שנוצרו ב- Designer. תכונת סימן המים הדיגיטלי הבלתי נראה מציגה את המקור, השעה והתאריך של היצירה המקורית, ולא ניתן לשנות מידע זה. הטכנולוגיה משתמשת בתקנים המוגדרים על-ידי הקואליציה עבור תוכן ואותנטיות (C2PA) כדי להוסיף שכבה נוספת של אמון ושקיפות עבור תמונות שנוצרו על-ידי בינה מלאכותית. Microsoft היא אחת מהתמיכה המשותפת של C2PA ותרמה עם טכנולוגיית הליבה של הוכחת תוכן דיגיטלי. 

תנאי שימוש וקוד התנהגות. משאב זה אחראי לשימוש ב- Copilot ב- Bing. המשתמשים צריכים לעמוד בתנאי השימוש ובקוד ההתנהגות, אשר, בין שאר הדברים, מודיעים להם על שימושים בלתי מורשים ולא זמינים ואת ההשלכות של ההפרה של תנאים. תנאי השימוש גם מספקים חשיפת מידע נוספת עבור משתמשים ומ משמשים כעיון שימושי למידע על Copilot ב- Bing.   

תפעול ותגובה מהירה. אנו משתמשים גם ב- Copilot בניטור המתמשך ובתהליכים התפעוליים של Bing כדי לטפל כאשר Copilot ב- Bing מקבל אותות, או מקבלים דוח, המציין שימוש לרעה או הפרות אפשריות של תנאי השימוש או קוד ההתנהגות.  

משוב, ניטור ופיקוח. חוויית Copilot ב- Bing תבנה על כלי קיים המאפשר למשתמשים לשלוח משוב ולדווח על חששות, אשר נבדקים על-ידי צוותי התפעול של Microsoft. התהליכים התפעוליים של Bing התרחבו גם כדי להכיל את התכונות הכלולות ב- Copilot בחוויה של Bing, לדוגמה, עדכון הדף 'דווח על חשש' כדי לכלול את סוגי התוכן החדשים שהמשתמשים יוצרים בעזרת המודל.    

הגישה שלנו לזיהוי, למדידה והפחתת סיכונים תמשיך להתפתח ככל שנלמד עוד, ואנו כבר משתתפים בשיפורים בהתבסס על משוב שנאסף במהלך תקופת התצוגה המקדימה.     

זיהוי תוכן אוטומטי. כאשר משתמשים מעלה תמונות כחלק מהנחיה לצ'אט, Copilot ב- Bing פורס כלים כדי לזהות ניצול מיני של ילדים ותמונות שימוש לרעה (CSEAI), הטכנולוגיה התואמת ל- Hash של PhotoDNA. Microsoft פיתחה את PhotoDNA כדי לעזור למצוא כפילויות של CSEAI ידוע. Microsoft מדווחת כל CSEAI נראה לעין למרכז הלאומי לילדים נעדרים ומנוצלים (NCMEC), כפי שנדרש על-ידי חוק ארצות הברית. כאשר משתמשים מעלה קבצים לניתוח או לתהליך, Copilot פורס סריקה אוטומטית כדי לזהות תוכן שעלול להוביל לסיכונים או לשימוש לרעה, כגון טקסט שעשוי להיות קשור לפעילויות לא חוקיות או לקוד זדוני.

הגנה על פרטיות  

אמונתה הארוך של Microsoft שפרטיות היא זכות אנושית בסיסית דיווחה על כל שלב בפיתוח ובפריסה של Copilot של Microsoft בחוויה של Bing. ההתחייבויות שלנו להגן על הפרטיות של כל המשתמשים, כולל על-ידי מתן שקיפות ושליטה בנתונים שלהם ושילוב הפרטיות באמצעות תכנון באמצעות צמצום נתונים והגבלת מטרה, הן בסיס ל- Copilot ב- Bing. ככל שנפתח את הגישה שלנו לספק את Copilot בחוויות הבינה המלאכותית הגנטית של Bing, נבחן ללא הצורך כיצד להגן על הפרטיות בצורה הטובה ביותר. מסמך זה יעודכן כפי שאנו עושים זאת. מידע נוסף על האופן שבו Microsoft מגנה על פרטיות המשתמשים שלנו זמין בהצהרת הפרטיות של Microsoft.  

Microsoft ממשיכה לשקול את הצרכים של ילדים וצעירים כחלק מהערכות הסיכונים של תכונות חדשות של בינה מלאכותית הגנטית ב- Copilot ב- Bing. כל חשבונות הילד של Microsoft שמזהים את המשתמש כגיל 13 או כפי שצוין אחרת לפי חוקים מקומיים אינם יכולים להיכנס כדי לגשת לחוויה החדשה המלאה של Bing.   

כמתואר לעיל, עבור כל המשתמשים יישמנו אמצעי הגנה שמצמצם תוכן שעלול להיות מזיק. ב- Copilot ב- Bing, התוצאות מוגדרות כמו במצב קפדני של החיפוש הבטוח של Bing, הכולל את רמת ההגנה הגבוהה ביותר בחיפוש הראשי של Bing, וכך מונעים ממשתמשים, כולל משתמשים בני נוער, להיחשף לתוכן שעלול להזיק. בנוסף למידע שסיפקנו במסמך זה ובשאלות הנפוצות שלנו בנוגע לתכונות הצ'אט, זמין כאן מידע נוסף על האופן שבו Copilot ב- Bing פועל כדי להימנע מתגובה לתוכן פוגע בלתי צפוי בתוצאות חיפוש.  

Microsoft התחייבה לא לספק פרסום בהתאמה אישית בהתבסס על התנהגות מקוונת לילדים שתאריך הלידה שלהם בחשבון Microsoft מזהה אותם כמי שמגילם קטן מ- 18. הגנה חשובה זו תתרחב לפרסומות ב- Copilot בתכונות של Bing. המשתמשים עשויים לראות פרסומות הקשריות בהתבסס על השאילתה או ההנחיה המשמשת לקיום אינטראקציה עם Bing.  

כדי לבטל את הפוטנציאל לשינוי בבינה מלאכותית, עלינו לבנות אמון בטכנולוגיה על-ידי העצמת אנשים כדי להבין כיצד נעשה שימוש בנתונים שלהם ולספק להם אפשרויות ופקדים בעלי משמעות על הנתונים שלהם. Copilot ב- Bing נועד לתעדף את הסוכנות האנושית, על-ידי מתן מידע על אופן הפעולה של המוצר וכן על המגבלות שלו, ועל-ידי הרחבת הבחירות והפקדים הצרכניים העומדים לרשותנו ל- Copilot בתכונות Bing.   

הצהרת הפרטיות של Microsoft מספקת מידע על שיטות הפרטיות השקופים שלנו להגנה על הלקוחות שלנו, ומגדירה מידע על אמצעי הבקרה שמספקים למשתמשים שלנו את היכולת להציג ולנהל את הנתונים האישיים שלהם. כדי להבטיח שלמשתמשים יש את המידע הדרוש להם כאשר הם מקיימים אינטראקציה עם תכונות השיחה החדשות של Bing, חשיפת מידע בתוך המוצר מודיעה למשתמשים שהם עוסקים במוצר בינה מלאכותית, ואנו מספקים קישורים לשאלות נפוצות והסברים נוספים לגבי אופן התמיכה של תכונות אלה. Microsoft תמשיך להאזין למשוב של המשתמשים ותוסיף פרטים נוספים על תכונות השיחה של Bing בהתאם לצורך כדי לתמוך בהבנת אופן הפעולה של המוצר.   

Microsoft מספקת גם למשתמשים שלה כלים חזקים למימוש זכויותיהם על הנתונים האישיים שלהם. עבור נתונים שנאספים על-ידי Copilot ב- Bing, כולל באמצעות שאילתות והנחיות של משתמשים, לוח המחוונים של הפרטיות של Microsoft מספק למשתמשים מאומתים (מחוברים) כלים לממש את זכויות נושא הנתונים שלהם, כולל על-ידי מתן היכולת של משתמשים להציג, לייצא ולמחוק היסטוריית שיחות מאוחסנות. Microsoft ממשיכה לקבל משוב על האופן שבו הם רוצים לנהל את החוויה החדשה של Bing, כולל השימוש בחוויות ניהול נתונים בהקשר.   

Copilot ב- Bing גם מכבד בקשות תחת הזכות האירופית שיש לשכוח, לאחר התהליך ש- Microsoft פיתחה ומעודנת עבור פונקציונליות החיפוש המסורתית של Bing. כל המשתמשים יכולים לדווח על חששות בנוגע לתוכן ותגובות שנוצרו כאן, והמשתמשים האירופאיים שלנו יכולים להשתמש בטופס זה כדי לשלוח בקשות לחסימת תוצאות חיפוש באירופה במסגרת הזכות לשכוח.   

Copilot ב- Bing יכבד את בחירות הפרטיות של המשתמשים, כולל אלה שבוצעו בעבר ב- Bing, כגון הסכמה לאיסוף נתונים ולשימוש שהתבקשו באמצעות כרזות ופקדים של קבצי Cookie הזמינים בלוח המחוונים של הפרטיות של Microsoft. כדי לעזור לאפשר אוטונומיות וסוכנות של משתמשים לקבל החלטות מושכלות, השתמשנו בתהליך הסקירה הפנימי שלנו כדי לבחון בקפידה את האופן שבו בחירות מוצגות למשתמשים. 

בנוסף לפקדים הזמינים דרך לוח המחוונים של הפרטיות של Microsoft, המאפשר למשתמשים להציג, לייצא ולמחוק את היסטוריית החיפוש שלהם, כולל רכיבים של היסטוריית הצ'אט שלהם, משתמשים מאומתים אשר אפשרו את תכונת היסטוריית הצ'אט במוצר יכולים להציג, לגשת להיסטוריית הצ'אט ולהוריד אותה באמצעות פקדים בתוך המוצר. המשתמשים עשויים לנקות צ'אטים ספציפיים מהיסטוריית הצ'אט או לכבות את הפונקציונליות של היסטוריית הצ'אט לחלוטין בכל עת על-ידי ביקור בדף הגדרות Bing. המשתמשים יכולים גם לבחור אם לאפשר התאמה אישית לגשת לחוויה מותאמת אישית יותר עם תשובות מותאמות אישית. המשתמשים יכולים להצטרף ולבטל את ההצטרפות להתאמה אישית בכל עת בהגדרות הצ'אט בדף 'הגדרות Bing'.  ניקוי צ'אטים ספציפיים מהיסטוריית הצ'אט מונע את השימוש בהם לצורך התאמה אישית.  
 
מידע נוסף על היסטוריית הצ'אט וההתאמה האישית מסופק למשתמשים ב- Copilot בשאלות נפוצות אודות Bing. 

Copilot ב- Bing נבנה תוך התחשבות בפרטיות, כך שנתונים אישיים נאספים ומשמשים רק לפי הצורך ונשמרים לא יותר מהנדרש. כפי שצוין לעיל, התכונה 'חיפוש חזותי ב- Copilot' ב- Bing פורסת מנגנון שמטשטש פנים בתמונות בזמן ההעלאה על-ידי משתמשים, כך שתמונות הפנים לא יעובדו או יאוחסנו עוד יותר. מידע נוסף על הנתונים האישיים ש- Bing אוסף, אופן השימוש בהם והאופן שבו הם מאוחסנים ונמחקים זמין בהצהרת הפרטיות של Microsoft, המספקת גם מידע על תכונות הצ'אט החדשות של Bing.   

ל- Copilot ב- Bing יש מדיניות שמירה ומחיקה של נתונים כדי להבטיח שנתונים אישיים שנאספו באמצעות תכונות הצ'אט של Bing נשמרים רק לפי הצורך.   

נמשיך ללמוד ולפתח את הגישה שלנו באספקת Copilot ב- Bing, וכך נמשיך לעבוד על תחומים שונים כדי ליישר את החדשנות שלנו בבינה מלאכותית עם ערכים אנושיים וזכויות בסיסיות, כולל הגנה על משתמשים צעירים ועל פרטיות.   

Copilot עם הגנה מסחרית על נתונים 

Copilot עם הגנת נתונים מסחרית, שנקראה בעבר Bing Chat Enterprise ("BCE"), הופצה על-ידי Microsoft בתצוגה מקדימה ציבורית ללא תשלום ביולי 2023 כהרחבה ללא תשלום עבור לקוחות M365 מסוימים. Copilot עם הגנה על נתונים מסחריים היא חוויה משופרת של חיפוש באינטרנט עבור משתמשי קצה ארגוניים. 

בדומה ל- Copilot ב- Bing, כאשר משתמש קצה של Copilot עם הגנת נתונים מסחרית מזין בקשה לממשק, הבקשה, השיחה המיידית, תוצאות החיפוש המובילות ו- metaprompt נשלחים כקלט ל- LLM. המודל יוצר תגובה באמצעות היסטוריית השיחות המיידית והבקשה להקשר של הבקשה, המטה-פרוייקט כדי ליישר תגובות לעקרונות הבינה המלאכותית של Microsoft ולציפיות המשתמשים, והתוצאות של תוצאות החיפוש לתשובות מבוססות בתוכן קיים בעל דירוג גבוה מהאינטרנט. פעולה זו פועלת בדיוק כמו Copilot ב- Bing כפי שמתואר לעיל במסמך זה, למעט האפשרות Copilot עם הגנה מסחרית על נתונים מסתמכת רק על היסטוריית שיחות מיידית (לא היסטוריית שיחות אחרונה) עקב היסטוריית צ'אט מאוחסנת שלא נתמכת כעת. Designer וחיפוש חזותי זמינים כעת בגירסה זו. 

כמו טכנולוגיות טרנספורמציה אחרות, נצלת היתרונות של בינה מלאכותית אינה מבוססת על סיכונים, ו חלק מרכזי בתוכנית הבינה המלאכותית האחראית של Microsoft נועד לזהות סיכונים פוטנציאליים, למדוד את ההפצה שלהם ולבנות צמצום סיכונים כדי לטפל בהם. שוב, התיאור לעיל של המאמצים של Microsoft לזהות, למדוד ולצמצם סיכונים פוטנציאליים עבור Copilot ב- Bing חל גם על גירסה זו, עם הבהרות מסוימות לגבי צמצום סיכונים המתוארים להלן: 

הפצה בשלבים, הערכה מתמשכית. בדומה ל- Copilot Bing, עבור Copilot עם הגנת נתונים מסחרית, נקטנו גם בגישה של שחרור מצטבר. ב- 18 ביולי 2023, Copilot עם הגנה על נתונים מסחריים הפכה לזמינה כתצוגה מקדימה ללא תשלום עבור לקוחות ארגוניים זכאים בעלי חשבונות M365 ספציפיים להפעלה עבור משתמשי הקצה הארגוניים שלהם. שלושים (30) יום לאחר שהודיעו ללקוחות ארגוניים זכאים, Copilot עם הגנת נתונים מסחרית הפכה ל"מופעלת כברירת מחדל" עבור אותם לקוחות. בנוסף, Copilot עם הגנה מסחרית על נתונים הפך לזמין בחשבונות M365 ספציפיים של הסגל החינוכי. Copilot עם הגנה מסחרית על נתונים הפכה לזמינה באופן כללי ללקוחות ארגוניים מסוימים ב- 1 בדצמבר 2023. בעתיד, בכוונתנו להרחיב את הגישה ל- Copilot עם הגנה מסחרית על נתונים כדי לאפשר למשתמשים Microsoft Entra מזהה יותר.

תנאי שימוש וקוד התנהגות. משתמשי קצה של Copilot עם הגנה מסחרית על נתונים חייבים לציית לתנאי השימוש של משתמש הקצה. תנאי שימוש אלה מודיעים למשתמשי קצה על שימושים מתינים שאינה מזערית ואת ההשלכות של ההפרה של תנאים.  

תפעול ותגובה מהירה. אנו משתמשים גם ב- Copilot בניטור המתמשך ובתהליכים התפעוליים של Bing כדי לטפל כאשר Copilot עם הגנה על נתונים מסחריים מקבלת אותות, או מקבלים דוח, המציין שימוש לרעה או הפרות אפשריות של תנאי השימוש למשתמשי הקצה

משוב, ניטור ופיקוח. Copilot עם הגנה על נתונים מסחריים משתמש באותו כלי כמו Copilot ב- Bing כדי שמשתמשים יוכלו לשלוח משוב ולדווח על חששות, אשר נבדקים על-ידי צוותי התפעול של Microsoft. גם התהליכים התפעוליים של Bing התרחבו כדי להכיל את התכונות בתוך Copilot עם חוויות מסחריות של הגנה על נתונים, לדוגמה, עדכון הדף 'דווח על חשש' כדי לכלול את סוגי התוכן החדשים שהמשתמשים יוצרים בעזרת המודל.  

כדי להבטיח שלמשתמשי קצה יהיה את המידע הדרוש להם כאשר הם מקיים אינטראקציה עם Copilot עם הגנה מסחרית על נתונים, קיים תיעוד מוצר זמין בתחתית מסמך זה, כולל שאלות נפוצות ודפים למידע נוסף. 

בקשות ותגובות שנוצרו על-ידי משתמשי קצה ב- Copilot עם הגנה על נתונים מסחריים מעובדים ונחסנים בהתאם לתקנים של טיפול בנתונים ארגוניים. ה- Copilot עם הצעה מסחרית להגנה על נתונים זמינה בשלב זה רק ללקוחות ארגוניים ולמשתמשי הקצה המבוגרים המורשים שלהם, ולכן איננו צופים וילדים או צעירים להיות משתמשי קצה של Copilot עם הגנת נתונים מסחרית בשלב זה. בנוסף, Copilot עם הגנה מסחרית על נתונים אינה מספקת פרסום ממוקד התנהגותי למשתמשי קצה. במקום זאת, כל הפרסומות המוצגות הן רק פרסומות רלוונטיות בהקשר.  

למידע נוסף

אודות מסמך זה  

© 2023 Microsoft. כל הזכויות שמורות. מסמך זה מסופק "כפי שהוא" ול למטרות מידע בלבד. מידע ותצוגות המבוטאים במסמך זה, כולל כתובת URL והפניות אחרות לאתרי אינטרנט, עשויים להשתנות ללא הודעה מוקדמת. הסיכון בשימוש בה מוטל עליך. דוגמאות מסוימות מיועדות לאיור בלבד והן מדוגמאות. שיוך אמיתי אינו מיועד או נגזר.  

זקוק לעזרה נוספת?

מעוניין באפשרויות נוספות?

גלה את יתרונות המנוי, עיין בקורסי הדרכה, למד כיצד לאבטח את המכשיר שלך ועוד.

קהילות עוזרות לך לשאול שאלות ולהשיב עליהן, לתת משוב ולשמוע ממומחים בעלי ידע עשיר.

האם מידע זה היה שימושי?

עד כמה אתם מרוצים מאיכות השפה?
מה השפיע על החוויה שלך?
בלחיצה על 'שלח', אתה מאפשר למשוב שלך לשפר מוצרים ושירותים של Microsoft. מנהל ה-IT שלך יוכל לאסוף נתונים אלה. הצהרת הפרטיות.

תודה על המשוב!

×