อัปเดตล่าสุด: กันยายน 2025

บันทึกย่อความโปร่งใสคืออะไร

ระบบ AI รวมถึงเทคโนโลยีไม่เพียง แต่ยังรวมถึงคนที่จะใช้มันคนที่ได้รับผลกระทบจากมันและสภาพแวดล้อมในการที่จะปรับใช้ บันทึกย่อความโปร่งใสของ Microsoft มีจุดประสงค์เพื่อช่วยให้คุณเข้าใจว่าเทคโนโลยี AI ที่อยู่เบื้องหลังการทํางานของ Copilot ทํางานอย่างไร ตัวเลือกที่เราทํามีผลต่อประสิทธิภาพและลักษณะการทํางานของระบบ และความสําคัญของการคิดเกี่ยวกับทั้งระบบ เพื่อให้ผู้ใช้ของ Copilot สามารถควบคุมประสบการณ์การใช้งานของตนเองและเข้าใจขั้นตอนที่เรากําลังดําเนินการเพื่อมอบผลิตภัณฑ์ที่ปลอดภัยและปลอดภัย

บันทึกย่อความโปร่งใสของ Microsoft เป็นส่วนหนึ่งของความพยายามที่กว้างขึ้นที่ Microsoft เพื่อนําหลักการ AI ของเรามาปฏิบัติ เมื่อต้องการค้นหาข้อมูลเพิ่มเติม ดูที่ หลักการ Microsoft AI 

พื้นฐานของ Microsoft Copilot

บทนำ

Copilot เป็นประสบการณ์ที่ขับเคลื่อนโดย AI ที่จะช่วยให้ผู้ใช้ได้รับข้อมูลที่พวกเขาต้องการในขณะที่กําลังเตรียมพร้อมเพื่อสนับสนุนผู้ใช้ในการตอบคําถามที่หลากหลายโดยไม่คํานึงถึงสถานการณ์หรือหัวข้อ Copilot ที่รีเฟรชแล้วนั้นนอกเหนือจากการตอบคิวรีการเรียกข้อมูลพื้นฐานและมุ่งเน้นการสร้างเนื้อหาเพื่อให้การสนับสนุนเชิงรุกแก่ผู้ใช้เมื่อทํางานเสร็จ เรามีความเข้าใจมากขึ้นว่า AI มีศักยภาพที่จะช่วยให้ผู้คนเรียนรู้ ค้นพบ และสร้างสรรค์มากขึ้นได้อย่างไร ซึ่งจําเป็นต้องให้เราสร้างผลิตภัณฑ์ประเภทอื่น ประสบการณ์ Copilot ใหม่พยายามที่จะกลายเป็นประสบการณ์ประเภทใหม่ที่เป็น open-ended และไดนามิกเพื่อให้ตอบสนองความต้องการของผู้ใช้ได้ดียิ่งขึ้นในลักษณะที่ใช้งานง่ายมากขึ้น

ที่ Microsoft เราให้ความสําคัญกับความรับผิดชอบของ AI อย่างจริงจัง ประสบการณ์การใช้งาน Copilot ที่ปรับปรุงใหม่ได้รับการพัฒนาให้สอดคล้องกับหลักการ AI ของ Microsoft, Standard AI ที่รับผิดชอบของ Microsoft และร่วมกับผู้เชี่ยวชาญ AI ที่มีความรับผิดชอบทั่วทั้งบริษัท รวมถึง AI ที่รับผิดชอบของ Microsoft, ทีมวิศวกรของเรา, Microsoft Research และ Aether คุณสามารถเรียนรู้เพิ่มเติมเกี่ยวกับ AI ที่มีความรับผิดชอบได้ที่ Microsoft ที่นี่  

ในเอกสารนี้ เราอธิบายแนวทางของเราในการรับผิดชอบ AI สําหรับ Copilot ก่อนวางจําหน่าย เราใช้ประโยชน์จากวิธีการที่ทันสมัยของ Microsoft ในการทําแผนที่ วัด และจัดการความเสี่ยงที่อาจเกิดขึ้นและการใช้งานระบบอย่างไม่ถูกต้อง และรักษาความปลอดภัยให้กับประโยชน์ของผู้ใช้ ขณะที่เราพัฒนา Copilot อย่างต่อเนื่อง เรายังได้เรียนรู้และปรับปรุงความพยายามด้าน AI ที่มีความรับผิดชอบของเราอย่างต่อเนื่อง เอกสารนี้จะได้รับการอัปเดตเป็นระยะๆ เพื่อสื่อสารกระบวนการและวิธีการที่พัฒนาขึ้นของเรา  

คําสําคัญ

ตัวจัดประเภท    โมเดลการเรียนรู้ของเครื่องที่ช่วยในการเรียงลําดับข้อมูลลงในชั้นเรียนที่มีป้ายชื่อหรือประเภทของข้อมูล ในประสบการณ์ Copilot ที่อัปเดตแล้ว วิธีหนึ่งที่เราใช้ตัวจัดประเภทคือช่วยตรวจจับเนื้อหาที่อาจเป็นอันตรายที่ส่งโดยผู้ใช้หรือสร้างโดยระบบเพื่อลดการสร้างเนื้อหานั้นและการใช้งานในทางที่ผิดหรือการใช้งานในทางที่ผิดของระบบ 

ดิน    สําหรับการสนทนาบางอย่างที่ผู้ใช้กําลังค้นหาข้อมูล Copilot อยู่ในผลลัพธ์การค้นหาเว็บ ซึ่งหมายความว่า Copilot จะเน้นการตอบสนองต่อเนื้อหาที่มีการจัดอันดับสูงจากเว็บ และมีข้อมูลอ้างอิงที่มีไฮเปอร์ลิงก์หลังจากการตอบกลับข้อความที่สร้างขึ้น โปรดทราบว่าในขณะนี้ พร้อมท์ผู้ใช้ในโหมดเสียงจะไม่ทริกเกอร์การค้นหาเว็บ ดังนั้น จะไม่มีข้อมูลอ้างอิงรวมอยู่ด้วย

โมเดลภาษาขนาดใหญ่ (LLM)    ตัวแบบภาษาขนาดใหญ่ (LLM) ในบริบทนี้เป็นโมเดล AI ที่ได้รับการฝึกฝนเกี่ยวกับข้อมูลข้อความจํานวนมากเพื่อคาดการณ์คําตามลําดับ LLMS สามารถทํางานต่างๆ ได้หลากหลาย เช่น การสร้างข้อความ การสรุป การแปล การจัดประเภท และอื่นๆ

การบรรเทา    วิธีการหรือการรวมวิธีการที่ออกแบบมาเพื่อลดความเสี่ยงที่อาจเกิดขึ้นจากการใช้ฟีเจอร์ AI ภายใน Copilot

โมเดลหลายกริยาช่วย (MMM)    โมเดลหลายโมดอล (MMM) เป็นโมเดล AI ที่ฝึกฝนเกี่ยวกับข้อมูลชนิดต่างๆ เช่น ข้อความ รูปภาพ หรือเสียง โมเดลเหล่านี้สามารถทํางานต่างๆ ได้หลากหลาย เช่น การเขียนข้อความ การอธิบายรูปภาพ การจดจําการสั่งงานด้วยเสียง และการค้นหาข้อมูลในข้อมูลประเภทต่างๆ

พร้อมท์    ป้อนข้อมูลในรูปแบบข้อความ รูปภาพ และ/หรือเสียงที่ผู้ใช้ส่งไปยัง Copilot เพื่อโต้ตอบกับฟีเจอร์ AI ภายใน Copilot

การร่วมทีมสีแดง    เทคนิคที่ผู้เชี่ยวชาญใช้เพื่อประเมินข้อจํากัดและช่องโหว่ของระบบและเพื่อทดสอบประสิทธิภาพของการบรรเทาที่วางแผนไว้ การทดสอบของทีมสีแดงรวมถึงผู้ทดสอบที่ใช้ตัวตนที่อ่อนโยนและเป็นฝ่ายโฆษณาเพื่อระบุความเสี่ยงที่อาจเกิดขึ้นและแตกต่างจากการวัดความเสี่ยงอย่างเป็นระบบ

ตอบ สนอง    ข้อความ รูปภาพ หรือเสียงที่ Copilot แสดงผลตามพร้อมท์หรือเป็นส่วนหนึ่งของด้านหลังและไปมากับผู้ใช้ คําพ้องความหมายสําหรับ "response" ประกอบด้วย "completion, "generation, and "answer"

รูปแบบภาษาขนาดเล็ก (SLM)    ตัวแบบภาษาขนาดเล็ก (SLMs) ในบริบทนี้เป็นโมเดล AI ที่ได้รับการฝึกฝนเกี่ยวกับข้อมูลจํานวนน้อยที่โฟกัสมากกว่าเมื่อเทียบกับรูปแบบภาษาขนาดใหญ่ แม้จะมีขนาดเล็กกว่า SLMs สามารถทํางานได้หลากหลายเช่นการสร้างข้อความการสรุปการแปลและการจําแนกประเภท แม้ว่าจะไม่ตรงกับความสามารถที่กว้างขวางของ LLMs แต่ SLMs มักจะมีประสิทธิภาพทรัพยากรมากกว่าและสามารถมีประสิทธิภาพสูงสําหรับแอปพลิเคชันที่กําหนดเป้าหมายเฉพาะ 

ข้อความของระบบ    ข้อความของระบบ (บางครั้งเรียกว่า "metaprompt") เป็นโปรแกรมที่ทําหน้าที่เป็นแนวทางการทํางานของระบบ ส่วนต่างๆ ของข้อความระบบจะช่วยจัดแนวลักษณะการทํางานของระบบด้วยหลักการ Microsoft AI และความคาดหวังของผู้ใช้ ตัวอย่างเช่น ข้อความของระบบอาจมีบรรทัดหนึ่ง เช่น "อย่าให้ข้อมูลหรือสร้างเนื้อหาที่อาจทําให้เกิดอันตรายทางกายภาพ ทางอารมณ์ หรือทางการเงิน" 

ความสามารถ

ลักษณะการทํางานของระบบ

ด้วย Copilot เราได้พัฒนาวิธีการที่เป็นนวัตกรรมใหม่เพื่อมอบประสบการณ์ AI ที่เป็นส่วนตัวมากขึ้นให้กับผู้ใช้สําหรับประสบการณ์การมีส่วนร่วมที่สามารถช่วยให้ผู้ใช้มีงานที่หลากหลาย วิธีการที่เป็นนวัตกรรมใหม่นี้ใช้ประโยชน์จากเทคโนโลยีขั้นสูงที่หลากหลาย เช่น ภาษาและโมเดลแบบหลายโมดอลจาก Microsoft, OpenAI และนักพัฒนารุ่นอื่นๆ เราทํางานเกี่ยวกับการปรับใช้เทคนิคความปลอดภัยสําหรับโมเดลที่เน้นประสบการณ์ Copilot ใหม่ก่อนเปิดตัวสู่สาธารณะเพื่อพัฒนาชุดความสามารถและพฤติกรรมแบบกําหนดเองที่ให้ประสบการณ์ Copilot ที่ได้รับการปรับปรุง ใน Copilot ที่อัปเดตผู้ใช้สามารถส่งพร้อมท์เป็นข้อความภาษาธรรมชาติหรือเสียงได้ การตอบกลับจะแสดงต่อผู้ใช้ในรูปแบบต่างๆ เช่น การตอบกลับการแชทในรูปแบบข้อความ (ที่มีลิงก์แบบดั้งเดิมไปยังเนื้อหาเว็บตามความจําเป็น) และรูปภาพ (หากคําขอรูปภาพเป็นส่วนหนึ่งของพร้อมท์) หากผู้ใช้ส่งพร้อมท์เป็นเสียงภาษาธรรมชาติภายในโหมด Copilot Voice พวกเขาจะได้รับการตอบสนองด้วยเสียง 

เมื่อผู้ใช้ใส่พร้อมท์ใน Copilot พร้อมท์ ประวัติการสนทนา และข้อความของระบบจะถูกส่งผ่านตัวจัดประเภทการป้อนข้อมูลต่างๆ เพื่อช่วยกรองเนื้อหาที่เป็นอันตรายหรือไม่เหมาะสมออก นี่เป็นขั้นตอนแรกที่สําคัญสําหรับช่วยปรับปรุงประสิทธิภาพของโมเดลและบรรเทาสถานการณ์ที่ผู้ใช้อาจพยายามพร้อมท์โมเดลในลักษณะที่อาจไม่ปลอดภัย เมื่อพร้อมท์ผ่านตัวจัดประเภทข้อมูลเข้า จะมีการส่งไปยัง SLM เพื่อตรวจสอบว่าคําขอต้องการข้อมูลพื้นฐานจากเว็บหรือไม่ และรูปแบบภาษาใดที่ควรตอบสนองต่อคําขอ โมเดลทั้งหมดสร้างการตอบกลับโดยใช้พร้อมท์และประวัติการสนทนาล่าสุดของผู้ใช้เพื่อปรับบริบทคําขอ ข้อความของระบบเพื่อจัดแนวการตอบกลับด้วย Microsoft AI Principles และความคาดหวังของผู้ใช้ และจัดแนวการตอบสนองกับผลลัพธ์การค้นหาให้ตรงกับคําตอบของเนื้อหาที่มีการจัดอันดับสูงที่มีอยู่จากเว็บหากเหมาะสม  

การตอบกลับจะแสดงต่อผู้ใช้ในรูปแบบต่างๆ เช่น การตอบกลับการแชทในรูปแบบข้อความ ลิงก์แบบดั้งเดิมไปยังเนื้อหาเว็บ รูปภาพ และการตอบกลับด้วยเสียง เมื่อมีการตอบกลับในรูปแบบของข้อความ และคําตอบถูกเชื่อมโยงไว้ในข้อมูลจากเว็บ ผลลัพธ์จะมีข้อมูลอ้างอิงที่มีไฮเปอร์ลิงก์แสดงอยู่ด้านล่างข้อความเพื่อให้ผู้ใช้สามารถเข้าถึงเว็บไซต์ที่ใช้เพื่อลงพื้นฐานการตอบกลับและเรียนรู้เพิ่มเติมเกี่ยวกับหัวข้อได้จากที่นั่น นอกจากนี้ Copilot ยังสามารถเรียกใช้โค้ดเพื่อทําการคํานวณที่ซับซ้อนและสร้างกราฟได้ Copilot สามารถจัดเก็บข้อเท็จจริงที่เฉพาะเจาะจงที่ผู้ใช้ร้องขอให้จดจํา ซึ่งช่วยให้สามารถสร้างคําตอบและคําแนะนําที่เกี่ยวข้องมากขึ้นตามบริบทนั้น Copilot ยังสามารถลบข้อเท็จจริงที่บันทึกไว้เมื่อผู้ใช้ขอให้ลืมพวกเขาอย่างชัดเจน

นอกจากนี้ Copilot ยังช่วยให้ผู้ใช้สามารถสร้างเรื่องราว บทกวี เนื้อเพลง และรูปภาพใหม่ๆ ได้ เมื่อ Copilot ตรวจพบความตั้งใจของผู้ใช้ในการสร้างเนื้อหาสร้างสรรค์ (เช่น พร้อมท์ผู้ใช้ที่ขึ้นต้นด้วย "เขียนให้ฉัน...") ระบบจะสร้างเนื้อหาที่ตอบสนองกับพร้อมท์ของผู้ใช้ ในทํานองเดียวกัน เมื่อ Copilot ตรวจพบเจตนาของผู้ใช้ในการสร้างรูปภาพ (เช่น พร้อมท์ผู้ใช้ที่ขึ้นต้นด้วย "วาดฉันเป็น ...") Copilot จะสร้างรูปภาพที่ตอบสนองกับพร้อมท์ของผู้ใช้ เมื่อ Copilot ตรวจพบความตั้งใจของผู้ใช้ในการปรับเปลี่ยนรูปภาพที่อัปโหลด (เช่น พร้อมท์ผู้ใช้ที่ขึ้นต้นด้วย "เพิ่ม ...") Copilot จะปรับเปลี่ยนรูปภาพที่ตอบสนองกับพร้อมท์ของผู้ใช้ Copilot อาจไม่ตอบสนองกับเนื้อหาที่สร้างสรรค์เมื่อพร้อมท์ผู้ใช้มีคําบางคําที่อาจส่งผลให้เกิดเนื้อหาที่เป็นปัญหา

ขณะนี้ผู้ใช้ที่มีบัญชี Microsoft (MSA) ยังมีตัวเลือกในการสมัครใช้งาน Copilot Pro ซึ่งมอบประสบการณ์การใช้งานที่ได้รับการปรับปรุง รวมถึงประสิทธิภาพการทํางานที่เร่งขึ้น การใช้ความสามารถ Copilot Voice เป็นระยะเวลานานขึ้น และในบางกรณีการเข้าถึงฟีเจอร์ใหม่แบบทดลอง ขณะนี้ Copilot Pro พร้อมใช้งานในบางประเทศ และเราวางแผนที่จะทําให้ Copilot Pro พร้อมใช้งานในตลาดเพิ่มเติมเร็วๆ นี้

พฤติกรรมความปลอดภัยที่ตั้งใจไว้

เป้าหมายของเราสําหรับ Copilot คือการเป็นประโยชน์ต่อผู้ใช้ ด้วยการใช้ประโยชน์จากแนวทางปฏิบัติที่ดีที่สุดจากผลิตภัณฑ์และบริการ AI ที่สร้างโดย Microsoft อื่นๆ เรามุ่งมั่นที่จะจํากัด Copilot ไม่ให้สร้างเนื้อหาที่เป็นปัญหาและเพิ่มความเป็นไปได้ในประสบการณ์ของผู้ใช้ที่ปลอดภัยและเป็นบวก ในขณะที่เราได้ดําเนินการเพื่อลดความเสี่ยง โมเดล AI ที่สร้างเช่นเดียวกับรุ่นที่อยู่เบื้องหลัง Copilot เป็นแบบน่าจะเป็นและสามารถทําผิดพลาดได้ ซึ่งหมายความว่าบางครั้งการบรรเทาอาจล้มเหลวในการบล็อกพร้อมท์ผู้ใช้ที่เป็นอันตรายหรือการตอบสนองที่สร้างขึ้นโดย AI หากคุณพบเนื้อหาที่เป็นอันตรายหรือไม่คาดคิดขณะใช้ Copilot โปรดแจ้งให้เราทราบโดยการให้คําติชมเพื่อให้เราสามารถปรับปรุงประสบการณ์การใช้งานได้อย่างต่อเนื่อง

กรณีการใช้งาน

การใช้งานที่ตั้งใจ

Copilot มีวัตถุประสงค์เพื่อสนับสนุนผู้ใช้ในการตอบคําถามที่หลากหลายโดยไม่คํานึงถึงสถานการณ์หรือหัวข้อ ผู้ใช้สามารถโต้ตอบกับ Copilot โดยใช้การป้อนข้อมูลข้อความ รูปภาพ และเสียงที่มีการโต้ตอบที่ตั้งใจจะรู้สึกเหมือนการสนทนากับระบบ AI อย่างเป็นธรรมชาติมากขึ้น นอกจากนี้ หากผู้ใช้โต้ตอบกับ Copilot ผ่านข้อความเพื่อค้นหาข้อมูลเฉพาะเกี่ยวกับหัวข้อที่ Copilot อาจต้องการข้อมูลเพิ่มเติมเพื่อให้คําตอบที่ถูกต้องยิ่งขึ้น ประสบการณ์การใช้งานมีวัตถุประสงค์เพื่อเชื่อมต่อผู้ใช้กับผลลัพธ์การค้นหาที่เกี่ยวข้อง ตรวจทานผลลัพธ์จากทั่วทั้งเว็บ และสรุปข้อมูลที่ผู้ใช้กําลังมองหา ใน Copilot ผู้ใช้สามารถ: 

  • สรุปข้อมูลแบบเรียลไทม์เมื่อแชทผ่านข้อความ    เมื่อผู้ใช้โต้ตอบกับ Copilot ผ่านข้อความ ระบบจะดําเนินการค้นหาเว็บหากต้องการข้อมูลเพิ่มเติมและจะใช้ผลลัพธ์การค้นหาเว็บยอดนิยมเพื่อสร้างสรุปข้อมูลเพื่อนําเสนอต่อผู้ใช้ ข้อมูลสรุปเหล่านี้รวมถึงข้อมูลอ้างอิงของเว็บเพจเพื่อช่วยให้ผู้ใช้สามารถดูและเข้าถึงแหล่งข้อมูลสําหรับผลลัพธ์การค้นหาที่ช่วยให้สรุปของ Copilot ได้อย่างง่ายดาย ผู้ใช้สามารถคลิกที่ลิงก์เหล่านี้เพื่อตรงไปยังแหล่งข้อมูลหากต้องการเรียนรู้เพิ่มเติม

  • สนทนากับระบบ AI โดยใช้ข้อความ    ผู้ใช้สามารถแชทกับ Copilot ผ่านข้อความและถามคําถามติดตามผลเพื่อค้นหาข้อมูลใหม่และรับการสนับสนุนในหัวข้อต่างๆ ที่หลากหลาย

  • อินเทอร์เฟซกับ AI โดยใช้เสียงและลักษณะที่ปรากฏ    Copilot ไม่เพียง แต่รับสัญญาณเสียงเข้า แต่ยังผลิตเสียงออกในหนึ่งในสี่เสียงที่เลือกโดยผู้ใช้และนําเสนอรูปลักษณ์ที่มองเห็นเพื่อเสริมการโต้ตอบ ความสามารถในการแปลงเสียงเป็นเสียงและลักษณะที่ปรากฏช่วยให้ผู้ใช้สามารถโต้ตอบกับ Copilot ได้อย่างเป็นธรรมชาติและลื่นไหลมากขึ้น

  • รับเนื้อหาข่าวที่แยกย่อยได้    ผู้ใช้สามารถใช้ Copilot เพื่อรับบทสรุปของข่าว สภาพอากาศ และการอัปเดตอื่นๆ ตามพื้นที่หัวข้อที่เลือกผ่านคุณลักษณะ Copilot รายวัน และฟังการสรุปเหล่านี้ในรูปแบบพ็อดแคสต์ ฟีเจอร์นี้จะดึงเนื้อหาจากแหล่งที่ได้รับอนุญาตซึ่งมีข้อตกลงกับ Microsoft

  • รับความช่วยเหลือในการสร้างแนวคิดใหม่    แต่ละครั้งที่ผู้ใช้โต้ตอบกับประสบการณ์ Copilot พวกเขาจะเห็นชุดการ์ดที่พวกเขาสามารถคลิกเพื่อเริ่มแชทกับ Copilot เกี่ยวกับหัวข้อที่มีประโยชน์และน่าสนใจ หากผู้ใช้โต้ตอบกับบริการผู้บริโภคอื่นๆ ของ Microsoft บัตรจะถูกปรับให้เป็นส่วนตัวตาม นโยบายความเป็นส่วนตัวของเรา เมื่อเวลาผ่านไป บัตรใน Copilot อาจถูกปรับแต่งตามประวัติการแชทของผู้ใช้ ผู้ใช้สามารถเลือกไม่รับการตั้งค่าส่วนบุคคลได้ตลอดเวลาในการตั้งค่า

  • สร้างเนื้อหาสร้างสรรค์    เมื่อแชทกับ Copilot ผู้ใช้สามารถสร้างบทกวี เรื่องตลก เรื่องราว รูปภาพ และเนื้อหาอื่นๆ ใหม่ด้วยความช่วยเหลือจากประสบการณ์ Copilot Copilot ยังสามารถแก้ไขรูปภาพที่อัปโหลดโดยผู้ใช้ได้หากร้องขอ

  • ทํางานบน Androidผู้ใช้สามารถโต้ตอบกับ Copilot ผ่านแพลตฟอร์ม Android ผ่านเสียงเพื่อดําเนินงานบางอย่าง งานเหล่านี้คือการตั้งค่าตัวจับเวลาและนาฬิกาปลุก การโทร การส่งข้อความ SMS และการจัดลําดับ Uber ผู้ใช้ต้องยืนยันการโทร ข้อความ SMS และคําสั่งซื้อ Uber ก่อนที่งานจะเสร็จสมบูรณ์

  • ความช่วยเหลือในการค้นคว้า  Copilot สามารถดําเนินงานวิจัยได้โดยการใช้แหล่งข้อมูลเชิงลึก นําเสนอรายละเอียดของหัวข้อ และการเชื่อมโยงไปยังแหล่งข้อมูลเพื่อช่วยให้ผู้ใช้ก้าวข้ามคําตอบที่รวดเร็วสําหรับคิวรีที่ซับซ้อนมากขึ้น Copilot อาจสร้างคําแนะนําในการวิจัยส่วนบุคคลสําหรับผู้ใช้โดยยึดตามสิ่งต่างๆ เช่น การสอบถามการวิจัยที่ผ่านมาและหน่วยความจํา Copilot ผู้ใช้สามารถเลือกไม่รับการตั้งค่าส่วนบุคคลหรือการแจ้งเตือนได้ตลอดเวลาในการตั้งค่า

  • สํารวจโลกด้วยวิสัยทัศน์ Copilot Copilot สามารถดูฟีดหน้าจอหรือกล้องมือถือของคุณ และใช้เสียงในการตอบคําถามและโต้ตอบกับคุณ Copilot สามารถสแกน วิเคราะห์ และเสนอข้อมูลเชิงลึกและคําแนะนําได้ทันทีเพื่อช่วยเหลือคุณขณะทํางาน เรียกดู หรือสํารวจโลก วิสัยทัศน์ Copilot พร้อมใช้งานบน Edge, Windows, iOS และ Android

ข้อควรพิจารณาเมื่อเลือกกรณีใช้งานอื่นๆ

เราขอแนะนําให้ผู้ใช้ตรวจสอบเนื้อหาทั้งหมดก่อนตัดสินใจหรือดําเนินการตามคําตอบของ Copilot เนื่องจาก AI สามารถทําผิดพลาดได้ นอกจากนี้ มีบางสถานการณ์ที่เราขอแนะนําให้หลีกเลี่ยงหรือที่ขัดต่อข้อกําหนดการใช้ของเรา ตัวอย่างเช่น Microsoft ไม่อนุญาตให้ Copilot ใช้ที่เกี่ยวข้องกับกิจกรรมที่ผิดกฎหมาย หรือเพื่อวัตถุประสงค์ใดๆ ที่มีวัตถุประสงค์เพื่อส่งเสริมกิจกรรมที่ผิดกฎหมาย  

ข้อจำกัด

ภาษา ภาพ และโมเดลเสียงที่อยู่ภายใต้ประสบการณ์ Copilot อาจรวมถึงข้อมูลการฝึกอบรมที่สามารถสะท้อนอคติทางสังคม ซึ่งอาจทําให้ Copilot ทํางานในลักษณะที่มองว่าไม่เป็นธรรม ไม่น่าเชื่อถือ หรือไม่เหมาะสม แม้จะมีการฝึกอบรมโมเดลที่เข้มข้นและการปรับแต่งความปลอดภัยแบบละเอียด รวมถึงการดําเนินการควบคุม AI อย่างมีความรับผิดชอบและระบบความปลอดภัยที่เราวางไว้ในข้อมูลการฝึกอบรม พร้อมท์ผู้ใช้ และเอาต์พุตโมเดล บริการที่ขับเคลื่อนด้วย AI จะลดลงและมีความน่าจะเป็น สิ่งนี้ทําให้เป็นเรื่องยากที่จะบล็อกเนื้อหาที่ไม่เหมาะสมทั้งหมดซึ่งนําไปสู่ความเสี่ยงที่อคติที่อาจเกิดขึ้นการเหมารวมความไม่แน่นอนหรืออันตรายประเภทอื่น ๆ ที่อาจปรากฏในเนื้อหาที่สร้างขึ้นโดย AI บางวิธีข้อจํากัดเหล่านั้นอาจแสดงขึ้นในประสบการณ์ Copilot แสดงอยู่ที่นี่ 

  • การเหมารวม: ประสบการณ์ Copilot อาจช่วยเสริมสร้างการเหมารวม ตัวอย่างเช่น เมื่อแปล "He is a nurse" และ "She is a doctor" เป็นภาษาที่ไม่มีเพศ เช่น ตุรกี จากนั้นกลับเป็นภาษาอังกฤษ Copilot อาจให้ผลลัพธ์แบบสมมุติ (และไม่ถูกต้อง) ของ "เธอเป็นพยาบาล" โดยไม่ได้ตั้งใจ และ "เขาเป็นแพทย์" อีกตัวอย่างหนึ่งคือเมื่อสร้างภาพตามพร้อมท์ "เด็กไร้พ่อ" ระบบสามารถสร้างภาพของเด็กจากการแข่งขันหรือชาติพันธุ์เพียงหนึ่งเดียวเสริมสร้างแบบแผนอันตรายที่อาจมีอยู่ในภาพที่เผยแพร่ต่อสาธารณะที่ใช้ในการฝึกอบรมโมเดลพื้นฐาน นอกจากนี้ Copilot ยังอาจเสริมการเหมารวมโดยยึดตามเนื้อหาในภาพที่ป้อนเข้าของผู้ใช้โดยอาศัยองค์ประกอบต่างๆ ของรูปภาพและสมมติฐานว่าอาจไม่เป็นจริง เราได้ดําเนินการบรรเทาเพื่อลดความเสี่ยงของเนื้อหาที่มีแบบแผนที่ไม่เหมาะสม รวมถึงตัวจัดประเภทอินพุตและเอาต์พุต โมเดลที่ปรับแต่งแล้ว และข้อความของระบบ

  • การแสดงออกมากเกินไปและการด้อยค่า: Copilot อาจเป็นกลุ่มบุคคลที่เหนือกว่าหรือต่ํากว่าตัวแทนหรือแม้แต่ไม่ได้เป็นตัวแทนพวกเขาเลยในการตอบสนอง ตัวอย่างเช่นหากข้อความพร้อมท์ที่มีคําว่า "เกย์" ถูกตรวจพบว่าอาจเป็นอันตรายหรือไม่เหมาะสมสิ่งนี้อาจนําไปสู่การด้อยค่าของรุ่นที่ถูกต้องตามกฎหมายเกี่ยวกับชุมชน LGBTQIA + นอกเหนือจากการรวมตัวจัดประเภทอินพุตและเอาท์พุท โมเดลที่ปรับแต่งแล้ว รวมถึงข้อความของระบบ เรายังใช้การเพิ่มพร้อมท์ใน Designer เป็นหนึ่งในการลดปัญหาหลายอย่างเพื่อลดความเสี่ยงของเนื้อหาที่เกินหรือต่ํากว่าตัวแทนกลุ่มบุคคล

  • เนื้อหาที่ไม่เหมาะสมหรือไม่เหมาะสม: ประสบการณ์ Copilot อาจทําให้เกิดเนื้อหาที่ไม่เหมาะสมหรือไม่เหมาะสมประเภทอื่น ตัวอย่างเช่น ความสามารถในการสร้างเนื้อหาในโมดอลลิตี้หนึ่ง (เช่น เสียง) ที่ไม่เหมาะสมในบริบทของพร้อมท์หรือเมื่อเปรียบเทียบกับเอาต์พุตเดียวกันในรูปแบบอื่น (เช่น ข้อความ) ตัวอย่างอื่นๆ ได้แก่ รูปภาพที่สร้างขึ้นโดย AI ที่อาจมีสิ่งประดิษฐ์ที่เป็นอันตราย เช่น สัญลักษณ์ความเกลียดชัง เนื้อหาที่เกี่ยวข้องกับหัวข้อการโต้เถียง การโต้เถียง หรือการเผยแพร่อย่างมีอุดมการณ์ และเนื้อหาที่มีค่าใช้จ่ายทางเพศซึ่งหลบเลี่ยงตัวกรองเนื้อหาที่เกี่ยวข้องกับเพศ เราได้ลดความเสี่ยงของคนรุ่นต่อๆ ไปที่มีเนื้อหาที่ไม่เหมาะสมหรือไม่เหมาะสม เช่น ตัวจัดประเภทอินพุตและเอาท์พุท โมเดลที่ปรับให้เหมาะสม และข้อความของระบบ

  • ความน่าเชื่อถือของข้อมูล: ในขณะที่ Copilot มีจุดมุ่งหมายเพื่อตอบสนองกับแหล่งข้อมูลที่เชื่อถือได้เมื่อจําเป็น AI สามารถทําผิดพลาดได้ มันอาจสร้างเนื้อหาที่ไร้สารภาพหรือเนื้อหาที่อาจฟังดูสมเหตุสมผล แต่ไม่ถูกต้องจริง ๆ แม้ว่าการวาดคําตอบจากข้อมูลเว็บที่มีอํานาจสูงการตอบกลับอาจแสดงเนื้อหาผิดในลักษณะที่อาจไม่ถูกต้องหรือเชื่อถือไม่ได้อย่างสมบูรณ์ เราเตือนผู้ใช้ผ่านส่วนติดต่อผู้ใช้และในเอกสารประกอบเช่นนี้ Copilot สามารถทําผิดพลาดได้ นอกจากนี้ เรายังให้ความรู้กับผู้ใช้เกี่ยวกับข้อจํากัดของ AI ต่อไป เช่น ส่งเสริมให้พวกเขาตรวจสอบข้อเท็จจริงอีกครั้งก่อนที่จะตัดสินใจหรือดําเนินการตามการตอบสนองของ Copilot เมื่อผู้ใช้โต้ตอบกับ Copilot ผ่านข้อความมันจะพยายามลงมือในข้อมูลเว็บคุณภาพสูงเพื่อลดความเสี่ยงที่คนรุ่นนั้นไม่ได้อยู่เบื้องหลัง

  • ประสิทธิภาพหลายภาษา: ประสิทธิภาพการทํางานในภาษาต่างๆ อาจแตกต่างกัน เนื่องจากภาษาอังกฤษมีประสิทธิภาพดีที่สุดเมื่อปล่อย Copilot ที่อัปเดตแล้ว การปรับปรุงประสิทธิภาพในทุกภาษาเป็นพื้นที่การลงทุนที่สําคัญ และรุ่นล่าสุดได้นําไปสู่การปรับปรุงประสิทธิภาพการทํางาน

  • ข้อจํากัดด้านเสียง: โมเดลเสียงอาจมีข้อจํากัดอื่นๆ พูดอย่างกว้างขวาง คุณภาพเสียงพูด เสียงรบกวนที่ไม่ใช่คําพูด คําศัพท์ การออกเสียง และการแทรกที่ผิดพลาดอาจส่งผลต่อกระบวนการของ Copilot และตอบสนองต่อการป้อนข้อมูลด้วยเสียงของผู้ใช้อย่างเป็นที่น่าพอใจหรือไม่ นอกจากนี้ เนื่องจากพร้อมท์ผู้ใช้เมื่อใช้ Copilot Voice จะไม่ทริกเกอร์การค้นหาเว็บ Copilot อาจไม่สามารถตอบสนองต่อเหตุการณ์ปัจจุบันในโหมดเสียงได้

  • การพึ่งพาการเชื่อมต่ออินเทอร์เน็ต: ประสบการณ์ Copilot ที่ปรับปรุงแล้วจะขึ้นอยู่กับการเชื่อมต่ออินเทอร์เน็ตในการทํางาน การหยุดชะงักในการเชื่อมต่ออาจส่งผลกระทบต่อความพร้อมใช้งานและประสิทธิภาพของบริการ

ประสิทธิภาพของระบบ

ในระบบ AI หลายระบบ ประสิทธิภาพมักจะถูกกําหนดโดยสัมพันธ์กับความแม่นยํา (เช่น ความถี่ที่ระบบ AI ใช้ในการทํานายหรือเอาต์พุตที่ถูกต้อง) Copilot ให้ความสําคัญกับ Copilot ในฐานะผู้ช่วยที่มีความสามารถด้าน AI ซึ่งสะท้อนความต้องการของผู้ใช้ ดังนั้นผู้ใช้สองคนอาจดูผลลัพธ์เดียวกันและมีความคิดเห็นที่แตกต่างกันว่ามีประโยชน์หรือเกี่ยวข้องกับสถานการณ์และความคาดหวังที่ไม่ซ้ํากันซึ่งหมายความว่าประสิทธิภาพสําหรับระบบเหล่านี้จะต้องมีความยืดหยุ่นมากขึ้น เราพิจารณาอย่างกว้างขวางถึงประสิทธิภาพที่หมายความว่าแอปพลิเคชันทํางานตามที่ผู้ใช้คาดหวัง

หลักปฏิบัติที่ดีที่สุดสําหรับการปรับปรุงประสิทธิภาพของระบบ 

โต้ตอบกับส่วนต่อประสานโดยใช้ภาษาที่เป็นธรรมชาติและการสนทนา    การโต้ตอบกับ Copilot ในวิธีที่สะดวกสบายสําหรับผู้ใช้คือกุญแจสําคัญในการได้รับผลลัพธ์ที่ดีขึ้นผ่านประสบการณ์ เช่นเดียวกับการใช้เทคนิคเพื่อช่วยให้ผู้คนสื่อสารได้อย่างมีประสิทธิภาพในชีวิตประจําวันของพวกเขาการโต้ตอบกับ Copilot ในฐานะผู้ช่วยที่มีความสามารถของ AI ไม่ว่าจะผ่านทางข้อความหรือการสั่งงานด้วยเสียงที่ผู้ใช้คุ้นเคยอาจช่วยให้ผลลัพธ์ที่ดีขึ้น

ประสบการณ์การใช้งานและการเริ่มนําไปใช้ของผู้ใช้    การใช้ Copilot อย่างมีประสิทธิภาพต้องให้ผู้ใช้เข้าใจถึงความสามารถและข้อจํากัด อาจมีช่วงการเรียนรู้ และผู้ใช้อาจต้องการอ้างอิงทรัพยากร Copilot ต่างๆ (เช่น เอกสารนี้และ คําถามที่ถามบ่อยเกี่ยวกับ Copilot ของเรา) เพื่อโต้ตอบและได้รับประโยชน์จากบริการอย่างมีประสิทธิภาพ

การแมป การวัด และการจัดการความเสี่ยง

เช่นเดียวกับเทคโนโลยีการเปลี่ยนแปลงอื่นๆ การควบคุมสิทธิประโยชน์ของ AI ไม่ใช่ความเสี่ยง และส่วนหลักของโปรแกรม AI ที่รับผิดชอบของ Microsoft ถูกออกแบบมาเพื่อระบุและแมปความเสี่ยงที่อาจเกิดขึ้น วัดความเสี่ยงเหล่านั้น และจัดการโดยการสร้างการบรรเทาและปรับปรุง Copilot อย่างต่อเนื่องเมื่อเวลาผ่านไป ในส่วนด้านล่างนี้ เราจะอธิบายวิธีการทําแผนที่ วัด และจัดการความเสี่ยงที่อาจเกิดขึ้นซ้ําๆ

แผนที่: การวางแผนอย่างรอบคอบและการทดสอบโฆษณาก่อนการปรับใช้ เช่น การทําทีมสีแดง ช่วยให้เราแมปความเสี่ยงที่อาจเกิดขึ้นได้ โมเดลพื้นฐานที่ขับเคลื่อนประสบการณ์ Copilot ได้ผ่านการทดสอบทีมสีแดงจากผู้ทดสอบที่เป็นตัวแทนของมุมมองแบบหลายมิติในทุกหัวข้อที่เกี่ยวข้อง การทดสอบนี้ออกแบบมาเพื่อประเมินว่าเทคโนโลยีล่าสุดจะทํางานอย่างไรทั้งคู่โดยไม่มีการป้องกันเพิ่มเติม ความตั้งใจของแบบฝึกหัดเหล่านี้ที่ระดับแบบจําลองคือการผลิตการตอบสนองที่เป็นอันตราย, surface avenues ที่อาจเกิดขึ้นสําหรับการใช้ในทางที่ผิด, และระบุความสามารถและข้อจํากัด.

ก่อนที่จะเผยแพร่ประสบการณ์ Copilot สู่สาธารณะในการแสดงตัวอย่างการเผยแพร่แบบจํากัด เรายังจัดทีมสีแดงที่ระดับแอปพลิเคชันเพื่อประเมิน Copilot สําหรับข้อบกพร่องและช่องโหว่ กระบวนการนี้ช่วยให้เราเข้าใจได้ดีขึ้นว่าผู้ใช้ที่หลากหลายสามารถใช้งานระบบได้อย่างไรและช่วยให้เราปรับปรุงการบรรเทาของเรา

การวัด: นอกเหนือจากการประเมิน Copilot กับการประเมินความปลอดภัยที่มีอยู่ของเราแล้วการใช้การทําทีมสีแดงที่อธิบายไว้ข้างต้นช่วยให้เราพัฒนาการประเมินและตัวชี้วัด AI ที่มีความรับผิดชอบซึ่งสอดคล้องกับความเสี่ยงที่อาจเกิดขึ้นเช่นการแหกคุกคามเนื้อหาที่เป็นอันตรายและเนื้อหาที่ไม่เป็นพื้น

เราเก็บรวบรวมข้อมูลการสนทนาที่กําหนดเป้าหมายความเสี่ยงเหล่านี้ โดยใช้การรวมกันของผู้เข้าร่วมที่เป็นมนุษย์และไปป์ไลน์การสร้างการสนทนาอัตโนมัติ การประเมินแต่ละครั้งจะมีคะแนนโดยกลุ่มของคําอธิบายประกอบมนุษย์ที่ผ่านการฝึกอบรมหรือไปป์ไลน์คําอธิบายประกอบอัตโนมัติ ทุกครั้งที่มีการเปลี่ยนแปลงของผลิตภัณฑ์ การแก้ไขที่มีอยู่หรือมีการนําเสนอการแก้ไขใหม่ เราจะอัปเดตไปป์ไลน์การประเมินผลของเราเพื่อประเมินทั้งประสิทธิภาพของผลิตภัณฑ์และเมตริก AI ที่มีความรับผิดชอบ ไปป์ไลน์บริบทการประเมินโดยอัตโนมัติเหล่านี้เป็นการรวมกันของการสนทนาที่รวบรวมกับนักประเมินมนุษย์และการสนทนาสังเคราะห์ที่สร้างขึ้นด้วย LLM ได้รับพร้อมท์ให้ทดสอบนโยบายในลักษณะโฆษณา การประเมินความปลอดภัยแต่ละอย่างเหล่านี้จะทําคะแนนโดยอัตโนมัติด้วย LLM สําหรับการประเมินผลที่พัฒนาขึ้นใหม่ การประเมินแต่ละรายการจะทําคะแนนเริ่มต้นโดยผู้ติดป้ายกํากับของมนุษย์ที่อ่านเนื้อหาข้อความหรือฟังเอาต์พุตเสียง แล้วแปลงเป็นการประเมินผลที่อิงตาม LLM โดยอัตโนมัติ

พฤติกรรมที่ตั้งใจไว้ของโมเดลของเราควบคู่กับไปป์ไลน์การประเมินผลของเรา ทั้งจากมนุษย์และแบบอัตโนมัติ ช่วยให้เราสามารถทําการวัดความเสี่ยงที่อาจเกิดขึ้นได้อย่างรวดเร็วตามขนาด เมื่อเราระบุปัญหาใหม่ๆ เมื่อเวลาผ่านไป เรายังคงขยายชุดการวัดเพื่อประเมินความเสี่ยงเพิ่มเติม 

จัดการ: ดังที่เราระบุถึงความเสี่ยงที่อาจเกิดขึ้นและนําไปใช้ในทางที่ผิดผ่านการทําทีมสีแดงและวัดผลด้วยวิธีการที่อธิบายไว้ข้างต้น เราพัฒนาการแก้ไขเพิ่มเติมที่เฉพาะเจาะจงสําหรับประสบการณ์ Copilot ด้านล่างนี้ เราอธิบายเกี่ยวกับการแก้ไขบางอย่างเหล่านั้น เราจะดําเนินการตรวจสอบประสบการณ์ Copilot เพื่อปรับปรุงประสิทธิภาพของผลิตภัณฑ์และแนวทางการลดความเสี่ยงของเราต่อไป 

  • แผนการเผยแพร่แบบกําหนดเป็นระยะและการประเมินผลอย่างต่อเนื่อง    เรามุ่งมั่นที่จะเรียนรู้และปรับปรุงแนวทาง AI ที่มีความรับผิดชอบของเราอย่างต่อเนื่องเมื่อเทคโนโลยีและพฤติกรรมผู้ใช้ของเราพัฒนาขึ้น กลยุทธ์การเผยแพร่ที่เพิ่มขึ้นของเราเป็นส่วนสําคัญของวิธีที่เราย้ายเทคโนโลยีของเราอย่างปลอดภัยจากห้องแล็บไปในโลก และเรามุ่งมั่นที่จะสร้างกระบวนการที่รอบคอบและรอบคอบเพื่อรักษาความปลอดภัยให้กับประโยชน์ของประสบการณ์ใช้งาน Copilot เรากําลังทําการเปลี่ยนแปลง Copilot เป็นประจําเพื่อปรับปรุงประสิทธิภาพของผลิตภัณฑ์และการบรรเทาที่มีอยู่ และใช้การแก้ไขใหม่เพื่อตอบสนองต่อการเรียนรู้ของเรา

  • ใช้ประโยชน์จากตัวจัดประเภทและข้อความของระบบเพื่อลดความเสี่ยงที่อาจเกิดขึ้นหรือการใช้งานในทางที่ผิด    ในการตอบสนองต่อพร้อมท์ของผู้ใช้ LLM อาจสร้างเนื้อหาที่เป็นปัญหา เราได้พูดคุยเกี่ยวกับประเภทของเนื้อหาที่เราพยายามจํากัดในส่วนลักษณะการทํางานและข้อจํากัดของระบบด้านบน ตัวจัดประเภทและข้อความของระบบเป็นสองตัวอย่างของการลดปัญหาที่ถูกนํามาใช้ใน Copilot เพื่อช่วยลดความเสี่ยงของเนื้อหาประเภทเหล่านี้ ตัวจัดประเภทจัดประเภทข้อความเพื่อตั้งค่าสถานะเนื้อหาที่อาจเป็นอันตรายในพร้อมท์ผู้ใช้หรือสร้างการตอบกลับ นอกจากนี้ เรายังใช้หลักปฏิบัติที่ดีที่สุดที่มีอยู่สําหรับการใช้ประโยชน์จากข้อความของระบบ ซึ่งเกี่ยวข้องกับการให้คําแนะนํากับโมเดลเพื่อปรับลักษณะการทํางานให้สอดคล้องกับหลักการ AI ของ Microsoft และตามความคาดหวังของผู้ใช้

  • การยินยอมให้อัปโหลดรูปภาพ Copilot    ครั้งแรกที่ผู้ใช้อัปโหลดรูปภาพที่มีใบหน้าไปยัง Copilot พวกเขาจะถูกขอให้ให้ความยินยอมในการอัปโหลดข้อมูลชีวมาตรของพวกเขาไปยัง Copilot หากผู้ใช้ไม่เลือกรับ รูปภาพจะไม่ถูกส่งไปยัง Copilot รูปภาพทั้งหมดไม่ว่าจะมีใบหน้าหรือไม่ก็ตามจะถูกลบภายใน 30 วันหลังจากการสนทนาสิ้นสุดลง

  • การเปิดเผยข้อมูล AI    Copilot ยังได้รับการออกแบบเพื่อแจ้งให้ผู้คนทราบว่าพวกเขากําลังโต้ตอบกับระบบ AI เมื่อผู้ใช้มีส่วนร่วมกับ Copilot เรานําเสนอจุดสัมผัสต่างๆ ที่ออกแบบมาเพื่อช่วยให้พวกเขาเข้าใจความสามารถของระบบเปิดเผยกับพวกเขาว่า Copilot ขับเคลื่อนโดย AI และข้อจํากัดในการสื่อสาร ประสบการณ์การใช้งานได้รับการออกแบบมาในลักษณะนี้เพื่อช่วยให้ผู้ใช้ได้รับประโยชน์สูงสุดจาก Copilot และลดความเสี่ยงต่อการเกินความอดทน การเปิดเผยข้อมูลยังช่วยให้ผู้ใช้เข้าใจ Copilot และการโต้ตอบกับ Copilot ได้ดียิ่งขึ้น

  • การพิสูจน์ของสื่อ    เมื่อ Copilot สร้างรูปภาพ เราได้เปิดใช้งานฟีเจอร์ "ข้อมูลประจําตัวของเนื้อหา" ซึ่งใช้วิธีการเข้ารหัสลับเพื่อทําเครื่องหมายแหล่งที่มา หรือ "การพิสูจน์" ของรูปภาพที่สร้างขึ้นโดย AI ทั้งหมดที่สร้างขึ้นโดยใช้ Copilot เทคโนโลยีนี้ใช้มาตรฐานที่กําหนดโดย Coalition สําหรับเนื้อหาและการรับรองความถูกต้อง (C2PA) เพื่อเพิ่มความเชื่อถือและความโปร่งใสเพิ่มเติมสําหรับรูปภาพที่สร้างขึ้นโดย AI

  • การตรวจจับเนื้อหาอัตโนมัติ    เมื่อผู้ใช้อัปโหลดรูปภาพเป็นส่วนหนึ่งของพร้อมท์การแชท Copilot จะใช้เครื่องมือในการตรวจหาการแสวงหาผลประโยชน์ทางเพศของเด็กและภาพในทางที่ผิด (CSEAI) Microsoft รายงาน CSEAI ที่เห็นได้ชัดทั้งหมดไปยังศูนย์คุ้มครองเด็กหายและเด็กถูกเอาเปรียบแห่งชาติ (NCMEC) ตามที่กฎหมายของสหรัฐอเมริกากําหนด เมื่อผู้ใช้อัปโหลดไฟล์เพื่อวิเคราะห์หรือประมวลผล Copilot จะปรับใช้การสแกนอัตโนมัติเพื่อตรวจหาเนื้อหาที่อาจทําให้เกิดความเสี่ยงหรือการใช้งานในทางที่ผิด เช่น ข้อความที่อาจเกี่ยวข้องกับกิจกรรมที่ผิดกฎหมายหรือรหัสที่เป็นอันตราย

  • ข้อกําหนดการใช้และจรรยาบรรณ    ผู้ใช้ควรปฏิบัติตามข้อกําหนดการใช้และจรรยาบรรณที่บังคับใช้ของ Copilot ข้อตกลงการใช้บริการของ Microsoft และนโยบายความเป็นส่วนตัวของ Microsoft ซึ่งบอกให้พวกเขาทราบถึงการใช้งานที่ไม่ได้รับอนุญาตและไม่สามารถใช้ได้ และผลที่ตามมาของการละเมิดข้อกําหนด ข้อตกลงการใช้งานยังให้การเปิดเผยเพิ่มเติมสําหรับผู้ใช้และทําหน้าที่เป็นข้อมูลอ้างอิงเพื่อให้ผู้ใช้เรียนรู้เกี่ยวกับ Copilot ผู้ใช้ที่มีการละเมิดที่ร้ายแรงหรือเกิดซ้ําอาจหยุดชั่วคราวหรือถาวรจากบริการ

  • คําติชม การตรวจสอบ และการกํากับดูแล    ประสบการณ์ Copilot สร้างขึ้นบนเครื่องมือที่มีอยู่ซึ่งช่วยให้ผู้ใช้สามารถส่งคําติชมซึ่งได้รับการตรวจสอบโดยทีมปฏิบัติการของ Microsoft นอกจากนี้ แนวทางของเราในการจัดทําแผนที่ การวัด และการจัดการความเสี่ยงจะยังคงพัฒนาต่อไปเมื่อเราเรียนรู้เพิ่มเติม และเราได้ทําการปรับปรุงตามคําติชมที่รวบรวมมาในช่วงการแสดงตัวอย่าง

เรียนรู้เพิ่มเติมเกี่ยวกับ AI ที่รับผิดชอบ

รายงานความโปร่งใส AI ที่มีความรับผิดชอบของ Microsoft

หลักการ Microsoft AI

ทรัพยากร AI ที่มีความรับผิดชอบของ Microsoft

หลักสูตร Microsoft Azure Learning เกี่ยวกับ AI ที่รับผิดชอบ

เรียนรู้เพิ่มเติมเกี่ยวกับ Microsoft Copilot

Microsoft Copilot คําถามที่ถามบ่อย

เกี่ยวกับเอกสารนี้

© 2024 Microsoft Corporation สงวนลิขสิทธิ์ เอกสารนี้มีให้ "ตามที่เป็น" และเพื่อวัตถุประสงค์ในการให้ข้อมูลเท่านั้น ข้อมูลและมุมมองที่แสดงในเอกสารนี้ รวมถึง URL และการอ้างอิงเว็บไซต์อินเทอร์เน็ตอื่นๆ อาจเปลี่ยนแปลงได้โดยไม่ต้องแจ้งให้ทราบ คุณต้องยอมรับความเสี่ยงในการใช้งาน บางตัวอย่างมีไว้สําหรับภาพประกอบเท่านั้นและสมมุติ ไม่มีการเชื่อมโยงจริงที่มีเจตนาหรืออนุมาน

เอกสารนี้ไม่ได้มีวัตถุประสงค์เพื่อเป็นและไม่ควรตีความว่าเป็นการให้คําแนะนําทางกฎหมาย เขตอํานาจศาลที่คุณกําลังดําเนินการอาจมีข้อกําหนดด้านกฎข้อบังคับหรือกฎหมายต่างๆ ที่ใช้กับระบบ AI ของคุณ ปรึกษาผู้เชี่ยวชาญด้านกฎหมายหากคุณไม่แน่ใจเกี่ยวกับกฎหมายหรือข้อบังคับที่อาจนําไปใช้กับระบบของคุณโดยเฉพาะอย่างยิ่งหากคุณคิดว่าอาจส่งผลกระทบต่อคําแนะนําเหล่านี้ โปรดทราบว่าคําแนะนําและทรัพยากรเหล่านี้ไม่เหมาะสมกับทุกสถานการณ์ และในทางกลับกัน คําแนะนําและทรัพยากรเหล่านี้อาจไม่เพียงพอสําหรับบางสถานการณ์

เผยแพร่เมื่อ: 10/01/2024

อัปเดตล่าสุด: 10/01/2024

ต้องการความช่วยเหลือเพิ่มเติมหรือไม่

ต้องการตัวเลือกเพิ่มเติมหรือไม่

สํารวจสิทธิประโยชน์ของการสมัครใช้งาน เรียกดูหลักสูตรการฝึกอบรม เรียนรู้วิธีการรักษาความปลอดภัยอุปกรณ์ของคุณ และอื่นๆ