ข้ามไปที่เนื้อหาหลัก
การสนับสนุน
ลงชื่อเข้าใช้
ลงชื่อเข้าใช้ด้วย Microsoft
ลงชื่อเข้าใช้หรือสร้างบัญชี
สวัสดี
เลือกบัญชีอื่น
คุณมีหลายบัญชี
เลือกบัญชีที่คุณต้องการลงชื่อเข้าใช้

อัปเดตล่าสุด: กุมภาพันธ์ 2024

พื้นฐานของ Copilot ใน Bing   

บทนำ  

ในเดือนกุมภาพันธ์ 2023 Microsoft ได้เปิดตัว Bing ใหม่ ซึ่งเป็นประสบการณ์การค้นหาเว็บที่ได้รับการปรับปรุง AI ซึ่งสนับสนุนผู้ใช้โดยการสรุปผลลัพธ์การค้นหาเว็บและให้ประสบการณ์การแชท ผู้ใช้ยังสามารถสร้างเนื้อหาที่สร้างสรรค์ เช่น บทกวี เรื่องตลก เรื่องราว และรูปภาพด้วย Bing Image Creator Bing ที่ปรับปรุง AI ใหม่ทํางานบนเทคโนโลยีขั้นสูงที่หลากหลายจาก Microsoft และ OpenAI รวมถึง GPT-4 รูปแบบภาษาขนาดใหญ่ (LLM) ที่ล้ําสมัย และ DALL-E ซึ่งเป็นรูปแบบการเรียนรู้เชิงลึกเพื่อสร้างรูปภาพดิจิทัลจากคําอธิบายภาษาธรรมชาติ ทั้งจาก OpenAI เราทํางานร่วมกับทั้งสองรุ่นเป็นเวลาหลายเดือนก่อนเผยแพร่สู่สาธารณะเพื่อพัฒนาชุดความสามารถและเทคนิคแบบกําหนดเองเพื่อเข้าร่วมกับเทคโนโลยี AI ที่ทันสมัยนี้และการค้นหาเว็บใน Bing ใหม่  ในเดือนพฤศจิกายน 2023 Microsoft ได้เปลี่ยนชื่อ Bing ใหม่เป็น Copilot ใน Bing

ที่ Microsoft เราให้ความสําคัญกับความรับผิดชอบของ AI อย่างจริงจัง ประสบการณ์การใช้งาน Copilot ใน Bing ได้รับการพัฒนาให้สอดคล้องกับ หลักการ AI ของ Microsoft, มาตรฐาน AI ที่รับผิดชอบของ Microsoft และร่วมกับผู้เชี่ยวชาญ AI ที่มีความรับผิดชอบทั่วทั้งบริษัท รวมถึง AI ที่รับผิดชอบของ Microsoft, ทีมวิศวกรของเรา, Microsoft Research และ Aether คุณสามารถเรียนรู้เพิ่มเติมเกี่ยวกับ AI ที่มีความรับผิดชอบได้ที่ Microsoft ที่นี่  

ในเอกสารนี้ เราอธิบายแนวทางของเราในการรับผิดชอบ AI สําหรับ Copilot ใน Bing ก่อนวางจําหน่าย เรานําวิธีการที่ทันสมัยมาใช้ในการระบุ วัด และลดความเสี่ยงที่อาจเกิดขึ้นและการใช้ระบบอย่างไม่ถูกต้อง และเพื่อรักษาความปลอดภัยให้กับผู้ใช้ ในขณะที่เราพัฒนา Copilot ใน Bing อย่างต่อเนื่องตั้งแต่เปิดตัวครั้งแรก เรายังได้เรียนรู้และปรับปรุงความพยายามด้าน AI ที่มีความรับผิดชอบของเราอย่างต่อเนื่อง เอกสารนี้จะได้รับการอัปเดตเป็นระยะๆ เพื่อสื่อสารกระบวนการและวิธีการที่พัฒนาขึ้นของเรา   

คําสําคัญ  

Copilot ใน Bing เป็นประสบการณ์การค้นหาเว็บที่ได้รับการปรับปรุง AI เมื่อใช้งานเทคโนโลยีใหม่ที่มีประสิทธิภาพ เราจึงเริ่มต้นด้วยการกําหนดคําสําคัญบางคํา  

โมเดลการเรียนรู้ของเครื่องที่ช่วยในการเรียงลําดับข้อมูลลงในชั้นเรียนที่มีป้ายชื่อหรือประเภทของข้อมูล ใน Copilot ใน Bing วิธีหนึ่งที่เราใช้ตัวจัดประเภทคือช่วยตรวจจับเนื้อหาที่อาจเป็นอันตรายที่ส่งโดยผู้ใช้หรือสร้างขึ้นโดยระบบเพื่อลดการสร้างเนื้อหานั้นและใช้งานในทางที่ผิดหรือการใช้งานในทางที่ผิดของระบบ 

Copilot ใน Bing อยู่ในผลลัพธ์การค้นหาเว็บเมื่อผู้ใช้ค้นหาข้อมูล ซึ่งหมายความว่าเราให้ความสําคัญกับการตอบสนองที่ให้กับคิวรีของผู้ใช้หรือพร้อมท์เกี่ยวกับเนื้อหาที่มีการจัดอันดับสูงจากเว็บ และเรามีลิงก์ไปยังเว็บไซต์เพื่อให้ผู้ใช้สามารถเรียนรู้เพิ่มเติมได้ Bing จัดอันดับเนื้อหาการค้นหาเว็บโดยคุณลักษณะการถ่วงน้ําหนักอย่างมาก เช่น ความเกี่ยวข้อง คุณภาพ และความน่าเชื่อถือ และความสดใหม่ เราอธิบายแนวคิดเหล่านี้โดยละเอียดเพิ่มเติมใน วิธีที่ Bing ให้ผลลัพธ์ Search (ดู "คุณภาพและความน่าเชื่อถือ" ใน "การจัดอันดับ Bing Search ผลลัพธ์")   

เราพิจารณาคําตอบที่ถูกต้องจากการตอบกลับจาก Copilot ใน Bing ซึ่งคําชี้แจงได้รับการสนับสนุนโดยข้อมูลที่อยู่ในแหล่งข้อมูลการป้อนข้อมูล เช่น ผลลัพธ์การค้นหาเว็บจากคิวรีหรือพร้อมท์ ฐานความรู้ข้อมูลการตรวจสอบข้อเท็จจริงของ Bing และสําหรับประสบการณ์การสนทนา ประวัติการสนทนาล่าสุดจากการแชท การตอบสนองแบบไม่เบื้องหน้าคือการตอบสนองที่คําสั่งไม่ได้มีพื้นฐานอยู่ในแหล่งการป้อนข้อมูลเหล่านั้น  

ตัวแบบภาษาขนาดใหญ่ (LLM) ในบริบทนี้เป็นโมเดล AI ที่ได้รับการฝึกฝนเกี่ยวกับข้อมูลข้อความจํานวนมากเพื่อคาดการณ์คําตามลําดับ LLMS สามารถทํางานได้หลากหลายเช่นการสร้างข้อความการสรุปการแปลการจําแนกประเภทและอื่น ๆ  

metaprompt เป็นโปรแกรมที่ทําหน้าที่นําทางพฤติกรรมของระบบ ส่วนต่างๆ ของ metaprompt ช่วยปรับลักษณะการทํางานของระบบกับหลักการ Microsoft AI และความคาดหวังของผู้ใช้ ตัวอย่างเช่น metaprompt อาจมีบรรทัดเช่น "สื่อสารในภาษาที่เลือกของผู้ใช้"  

วิธีการหรือการรวมวิธีการที่ออกแบบมาเพื่อลดความเสี่ยงที่อาจเกิดขึ้นจากการใช้ฟีเจอร์ที่ขับเคลื่อนโดย AI ใน Copilot ใน Bing  

ข้อความ เสียง รูปภาพ และ/หรือคิวรีที่เปิดใช้งานอื่นๆ ที่ผู้ใช้ส่งไปยัง Bing เป็นการป้อนข้อมูลไปยังโมเดลที่ขับเคลื่อนประสบการณ์การสร้างที่ขับเคลื่อนโดย AI ใหม่ใน Bing ตัวอย่างเช่น ผู้ใช้อาจป้อนพร้อมท์ต่อไปนี้:  

"ฉันกําลังวางแผนการเดินทางสําหรับวันครบรอบของเราในเดือนกันยายน สถานที่ใดบ้างที่เราสามารถไปได้ภายใน 3 ชั่วโมงเที่ยวบินจากลอนดอน ฮีทโทรว์?”  

ข้อความที่ผู้ใช้ส่งไปยัง Bing จากแถบค้นหาสําหรับการค้นหาเว็บ ในเอกสารนี้ เราแยกความแตกต่างของคิวรี (สําหรับการค้นหาเว็บ) จากพร้อมท์ (สําหรับประสบการณ์การสร้างที่ขับเคลื่อนโดย AI ใน Bing) ตัวอย่างเช่น ผู้ใช้อาจป้อนคิวรีต่อไปนี้เพื่อค้นหาเว็บ:  

"จุดหมายปลายทางการเดินทางใกล้สนามบินลอนดอน ฮีทโทรว์"  

เทคนิคที่ผู้เชี่ยวชาญใช้เพื่อประเมินข้อจํากัดและช่องโหว่ของระบบและเพื่อทดสอบประสิทธิภาพของการบรรเทาที่วางแผนไว้ การทดสอบทีมสีแดงและการทดสอบความเครียดจะใช้เพื่อระบุความเสี่ยงที่อาจเกิดขึ้นและแตกต่างจากการวัดความเสี่ยงอย่างเป็นระบบ   

ข้อความ รูปภาพ แผนภูมิ เป็นต้น Copilot ในผลลัพธ์ของ Bing เพื่อตอบสนองต่อพร้อมท์ คําพ้องความหมายสําหรับ "response" ประกอบด้วย "completion, "generation, และ "answer" ตัวอย่างเช่น Bing อาจให้การตอบสนองต่อไปนี้กับพร้อมท์ที่เราใช้ในคําจํากัดความของ 'พร้อมท์' ด้านบน:   

"ขอแสดงความยินดีในโอกาสวันครบรอบของคุณ! มีสถานที่หลายแห่งที่คุณสามารถไปได้ภายใน 3 ชั่วโมงเที่ยวบินจากลอนดอนฮีทโทรว์ จากที่มาแห่งหนึ่ง วันหยุดบางส่วนจะหลบหนีภายในสามชั่วโมงโดยเครื่องบินจากลอนดอน คือ บิลบาโอ โคเปนเฮเกน เรคยาวิก และสตอกโฮล์ม 1, 2 แหล่งอื่นแนะนําสถานที่ที่ดีที่สุดในยุโรปในเดือนกันยายนคือคราโกว์ฟลอเรนซ์และลิสบอน 3, 4 นอกจากนี้คุณยังสามารถตรวจสอบเที่ยวบินตรงจากลอนดอนฮีทโทรว์ไปยังสถานที่ต่าง ๆ และดูว่าสิ่งที่น่าสนใจสําหรับคุณ 5. ฉันหวังว่าคุณจะมีการเดินทางที่ยอดเยี่ยม!”  

การใช้งานที่ตั้งใจไว้และประสบการณ์ AI ใหม่  

การใช้งานที่มุ่งหมายของ Copilot ใน Bing คือการเชื่อมต่อผู้ใช้กับผลลัพธ์การค้นหาที่เกี่ยวข้อง ตรวจทานผลลัพธ์จากบนเว็บเพื่อค้นหาและสรุปคําตอบที่ผู้ใช้กําลังมองหา ช่วยผู้ใช้ปรับปรุงการค้นคว้าของพวกเขาเพื่อรับคําตอบด้วยประสบการณ์การสนทนา และกระตุ้นความคิดสร้างสรรค์โดยช่วยผู้ใช้สร้างเนื้อหา ประสบการณ์ AI เชิงสร้างสรรค์ของ Copilot ใน Bing ด้านล่างสนับสนุนเป้าหมายของการเป็น Copilot ที่มีความสามารถของ AI สําหรับเว็บ  

การสรุป เมื่อผู้ใช้ส่งคําสืบค้นบน Copilot ใน Bing ระบบ Bing จะประมวลผลคิวรี ทําการค้นหาเว็บอย่างน้อยหนึ่งรายการ และใช้ผลลัพธ์การค้นหาเว็บยอดนิยมเพื่อสร้างสรุปข้อมูลเพื่อนําเสนอต่อผู้ใช้ ข้อมูลสรุปเหล่านี้มีการอ้างอิงเพื่อช่วยให้ผู้ใช้เห็นและเข้าถึงผลลัพธ์การค้นหาที่ใช้เพื่อช่วยสรุปได้อย่างง่ายดาย ข้อมูลสรุปสามารถปรากฏที่ด้านขวาของหน้าผลลัพธ์การค้นหาและภายในประสบการณ์การแชท  

ประสบการณ์การแชท นอกเหนือจากการสรุป ผู้ใช้สามารถแชทกับ Copilot ในระบบ Bing ผ่านการป้อนข้อความ รูปภาพ หรือเสียง ขอให้คําถามติดตามผลเพื่ออธิบายการค้นหาและค้นหาข้อมูลใหม่ และส่งพร้อมท์เพื่อสร้างเนื้อหาสร้างสรรค์ การอ้างอิงจะรวมอยู่ในประสบการณ์การแชทเมื่อ Copilot ใน Bing สรุปผลลัพธ์การค้นหาในการตอบกลับ   

การสร้างเนื้อหาสร้างสรรค์ ทั้งในประสบการณ์การแชทและในหน้าการค้นหา ผู้ใช้สามารถสร้างบทกวี เรื่องตลก เรื่องราว รูปภาพ และเนื้อหาอื่นๆ ด้วยความช่วยเหลือจาก Copilot ใน Bing  รูปภาพถูกสร้างขึ้นโดย Designer (เดิมคือ Bing Image Creator) และผู้ใช้สามารถเข้าถึงฟีเจอร์ได้ผ่านโฮมเพจ Designer และหน้า Copilot 

Copilot ใน Bing ทํางานอย่างไร  

ด้วย Copilot ใน Bing เราได้พัฒนาแนวทางที่เป็นนวัตกรรมใหม่เพื่อนํา LLM อันล้ําสมัยมาสู่การค้นหาเว็บ เมื่อผู้ใช้ป้อนพร้อมท์ใน Copilot ใน Bing พร้อมท์ ประวัติการสนทนาล่าสุด metaprompt และผลลัพธ์การค้นหายอดนิยมจะถูกส่งเป็นการป้อนข้อมูลไปยัง LLM โมเดลจะสร้างการตอบกลับโดยใช้พร้อมท์และประวัติการสนทนาล่าสุดของผู้ใช้เพื่อกําหนดบริบทคําขอ การเปลี่ยนแปลงเพื่อจัดแนวการตอบกลับด้วย Microsoft AI Principles และความคาดหวังของผู้ใช้ และผลลัพธ์การค้นหาเพื่อลงหลักการตอบสนองในเนื้อหาที่มีการจัดอันดับสูงที่มีอยู่จากเว็บ   

การตอบกลับจะแสดงต่อผู้ใช้ในรูปแบบต่างๆ เช่น ลิงก์แบบดั้งเดิมไปยังเนื้อหาเว็บ การสรุปที่สร้างขึ้นโดย AI รูปภาพ และการตอบกลับการแชท การสรุปและการตอบกลับการแชทที่ใช้ผลลัพธ์การค้นหาเว็บจะมีการอ้างอิงและส่วน "เรียนรู้เพิ่มเติม" ทางด้านล่างของการตอบกลับ พร้อมลิงก์ไปยังผลลัพธ์การค้นหาที่ใช้ขัดเกลาการตอบกลับ ผู้ใช้สามารถคลิกลิงก์เหล่านี้เพื่อเรียนรู้เพิ่มเติมเกี่ยวกับหัวข้อและข้อมูลที่ใช้เพื่อสรุปหรือการตอบกลับการแชท    

ในประสบการณ์ Copilot ผู้ใช้สามารถทําการค้นหาเว็บได้อย่างมีการสนทนาโดยการเพิ่มบริบทในพร้อมท์และโต้ตอบกับการตอบสนองของระบบเพื่อระบุความสนใจในการค้นหาของพวกเขาเพิ่มเติม ตัวอย่างเช่น ผู้ใช้อาจถามคําถามติดตามผล ร้องขอข้อมูลให้ชัดเจนเพิ่มเติม หรือตอบกลับระบบด้วยวิธีการสนทนา ในประสบการณ์การแชท ผู้ใช้ยังสามารถเลือกการตอบกลับจากคําแนะนําที่เขียนไว้ล่วงหน้า ซึ่งเราเรียกคําแนะนําในการแชท ปุ่มเหล่านี้จะปรากฏหลังจากการตอบกลับแต่ละครั้งจาก Copilot และให้พร้อมท์ที่แนะนําเพื่อดําเนินการสนทนาภายในประสบการณ์การแชทต่อ คําแนะนําในการแชทยังปรากฏควบคู่ไปกับเนื้อหาสรุปบนหน้าผลลัพธ์การค้นหาเป็นจุดเริ่มต้นสําหรับประสบการณ์การแชท  

นอกจากนี้ Copilot ใน Bing ยังช่วยให้ผู้ใช้สามารถสร้างเรื่องราว บทกวี เนื้อเพลง และรูปภาพด้วยความช่วยเหลือจาก Bing เมื่อ Copilot ใน Bing ตรวจพบความตั้งใจของผู้ใช้ในการสร้างเนื้อหาที่สร้างสรรค์ (ตัวอย่างเช่น พร้อมท์เริ่มต้นด้วย "เขียนฉันเป็น ...") ระบบจะสร้างเนื้อหาที่ตอบสนองตามพร้อมท์ของผู้ใช้ ในทํานองเดียวกัน เมื่อ Copilot ใน Bing ตรวจพบความตั้งใจของผู้ใช้ในการสร้างรูปภาพ (ตัวอย่างเช่น พร้อมท์เริ่มต้นด้วย "วาดฉันเป็น ...") ระบบจะสร้างรูปภาพที่ตอบสนองกับพร้อมท์ของผู้ใช้ ใน Visual Search ในประสบการณ์การแชท ด้วยรูปภาพที่ถ่ายโดยกล้องของผู้ใช้ อัปโหลดจากอุปกรณ์ของผู้ใช้ หรือลิงก์จากเว็บ ผู้ใช้สามารถพร้อมท์ Copilot ใน Bing เพื่อทําความเข้าใจบริบท แปล และตอบคําถามเกี่ยวกับรูปภาพได้  ผู้ใช้ยังสามารถอัปโหลดไฟล์ของตนไปยัง Copilot เพื่อตีความ แปลง ประมวลผล หรือคํานวณข้อมูลจากพวกเขาได้ ในประสบการณ์ Microsoft Designer ที่ผู้ใช้สามารถเข้าถึงผ่าน Copilot ใน Bing ผู้ใช้ไม่เพียง แต่สามารถสร้างรูปภาพโดยใช้พร้อมท์ แต่ยังปรับขนาดหรือนอนพักหรือทําการแก้ไขเช่นเบลอพื้นหลังหรือทําให้สีสดใสมากขึ้น 

ขณะนี้ผู้ใช้ที่มีบัญชี Microsoft (MSA) มีตัวเลือกในการสมัครใช้งาน Copilot Pro ที่มอบประสบการณ์การใช้งานที่ปรับปรุงแล้ว รวมถึงประสิทธิภาพการทํางานที่เร็วขึ้น การสร้างรูปภาพ AI ที่เร็วขึ้น และความสามารถในการสร้าง GPT Copilot ของคุณเองในเร็วๆ นี้ ขณะนี้ Copilot Pro พร้อมใช้งานในประเทศที่จํากัด และเราวางแผนที่จะทําให้ Copilot Pro พร้อมใช้งานในตลาดเพิ่มเติมเร็วๆ นี้

ในประสบการณ์ Copilot ผู้ใช้สามารถเข้าถึง Copilot GPTs ได้ Copilot GPT เช่น Designer GPT เป็นเวอร์ชันที่กําหนดเองของ Microsoft Copilot ในหัวข้อที่คุณสนใจเป็นพิเศษ เช่น ความฟิต การเดินทาง และการปรุงอาหาร ที่สามารถช่วยเปลี่ยนแนวคิดที่คลุมเครือหรือทั่วไปให้เป็นพร้อมท์ที่เฉพาะเจาะจงมากขึ้นด้วยผลลัพธ์รวมถึงข้อความและรูปภาพ ในผู้ใช้ Copilot สามารถดู GPT ของ Copilot ที่พร้อมใช้งาน และผู้ใช้ที่มีบัญชี Copilot Pro จะสามารถเข้าถึง Copilot GPT Builder ซึ่งเป็นฟีเจอร์ที่ช่วยให้ผู้ใช้สามารถสร้างและกําหนดค่า Copilot GPT แบบกําหนดเองได้ การแก้ไข AI อย่างรับผิดชอบที่กล่าวถึงข้างต้นสําหรับ Copilot ใน Bing ใช้กับ GPT ของ Copilot

หากต้องการเรียนรู้เพิ่มเติมว่า GPTs Copilot Pro และ Copilot ทํางานอย่างไร โปรดไปที่ ที่นี่

Copilot ใน Bing พยายามให้ผลการค้นหาที่หลากหลายและครอบคลุมโดยมุ่งมั่นที่จะเข้าถึงข้อมูลได้ฟรีและเปิดกว้าง ในขณะเดียวกัน ความพยายามด้านคุณภาพของผลิตภัณฑ์ของเรารวมถึงการทํางานเพื่อหลีกเลี่ยงการส่งเสริมเนื้อหาที่อาจเป็นอันตรายโดยไม่ได้ตั้งใจให้กับผู้ใช้ ข้อมูลเพิ่มเติมเกี่ยวกับวิธีการที่ Bing จัดอันดับเนื้อหา รวมถึงวิธีการกําหนดความเกี่ยวข้อง และคุณภาพและความน่าเชื่อถือของเว็บเพจ มีอยู่ใน "แนวทางของเว็บมาสเตอร์ของ Bing"   ข้อมูลเพิ่มเติมเกี่ยวกับหลักการการควบคุมเนื้อหาของ Bing มีอยู่ใน "วิธีที่ Bing แสดงผลลัพธ์การค้นหา"   

ในประสบการณ์การใช้งาน Copilot ใน Windows Copilot ใน Bing สามารถทํางานร่วมกับระบบปฏิบัติการ Windows เพื่อมอบทักษะเฉพาะของ Windows เช่น การเปลี่ยนธีมหรือพื้นหลังของผู้ใช้ และการเปลี่ยนการตั้งค่า เช่น เสียง Bluetooth และระบบเครือข่าย ประสบการณ์การใช้งานเหล่านี้ช่วยให้ผู้ใช้สามารถกําหนดการตั้งค่าและปรับปรุงประสบการณ์ใช้งานของผู้ใช้โดยใช้พร้อมท์ภาษาธรรมชาติให้กับ LLM ฟังก์ชั่นเฉพาะของแอปพลิเคชันยังสามารถให้บริการจากปลั๊กอินแอปพลิเคชันของบุคคลที่สาม สิ่งเหล่านี้สามารถทํางานที่ทําซ้ําๆ โดยอัตโนมัติและมีประสิทธิภาพผู้ใช้มากขึ้น เนื่องจาก LLM สามารถทําผิดพลาดได้ในบางครั้ง จึงมีพร้อมท์การยืนยันผู้ใช้ที่เหมาะสมเพื่อให้ผู้ใช้เป็นอนุญาโตตุลาการสุดท้ายของการเปลี่ยนแปลงที่สามารถกระทําได้ 

การระบุ การวัด และบรรเทาความเสี่ยง  

เช่นเดียวกับเทคโนโลยีการเปลี่ยนแปลงอื่นๆ การควบคุมสิทธิประโยชน์ของ AI ไม่ใช่ความเสี่ยง และส่วนหลักของ โปรแกรม AI ที่รับผิดชอบของ Microsoft ถูกออกแบบมาเพื่อระบุความเสี่ยงที่อาจเกิดขึ้น วัดความชอบของพวกเขาที่อาจเกิดขึ้น และสร้างการบรรเทาเพื่อแก้ไขปัญหาเหล่านั้น เราพยายามระบุ วัดผล และบรรเทาความเสี่ยงที่อาจเกิดขึ้นและการใช้ Copilot ใน Bing ในทางที่ผิดพร้อมกับรักษาความปลอดภัยของการใช้การเปลี่ยนแปลงและประโยชน์ที่ประสบการณ์การใช้งานใหม่มอบให้ ในส่วนด้านล่างนี้เราจะอธิบายวิธีการระบุ วัด และบรรเทาความเสี่ยงที่อาจเกิดขึ้น   

ที่ระดับแบบจําลองงานของเราเริ่มต้นด้วยการวิเคราะห์การสํารวจของ GPT-4 ในช่วงปลายฤดูร้อนของปี 2022 ซึ่งรวมถึงการดําเนินการทดสอบทีมสีแดงอย่างกว้างขวางร่วมกับ OpenAI การทดสอบนี้ออกแบบมาเพื่อประเมินว่าเทคโนโลยีล่าสุดจะทํางานอย่างไรโดยไม่มีการป้องกันเพิ่มเติมใดๆ ความตั้งใจเฉพาะของเราในขณะนี้คือการสร้างการตอบสนองที่เป็นอันตราย พบสิ่งต่างๆ ที่อาจเกิดขึ้นสําหรับการใช้ในทางที่ผิด และระบุความสามารถและข้อจํากัดต่างๆ การเรียนรู้ที่ผสานรวมกันของเราใน OpenAI และ Microsoft มีส่วนช่วยพัฒนาโมเดลและสําหรับเราที่ Microsoft ได้แจ้งความเข้าใจของเราเกี่ยวกับความเสี่ยงและมีส่วนร่วมในกลยุทธ์การบรรเทาปัญหาเบื้องต้นสําหรับ Copilot ใน Bing  

นอกเหนือจากการทดสอบทีมสีแดงระดับโมเดลทีมสหสาขาวิชาชีพของผู้เชี่ยวชาญได้ดําเนินการทดสอบทีมสีแดงระดับแอปพลิเคชันมากมายเกี่ยวกับ Copilot ในประสบการณ์ Bing AI ก่อนที่จะเผยแพร่สู่สาธารณะในตัวอย่างการเผยแพร่ที่ จํากัด ของเรา กระบวนการนี้ช่วยให้เราเข้าใจมากขึ้นว่าระบบอาจถูกใช้ประโยชน์จากโดยผู้กระทําโฆษณาและปรับปรุงการบรรเทาของเราได้อย่างไร เครื่องทดสอบความเครียดที่ไม่ใช่ adversarial ยังประเมินฟีเจอร์ Bing ใหม่อย่างกว้างขวางสําหรับข้อบกพร่องและช่องโหว่ หลังการเผยแพร่ ประสบการณ์ AI ใหม่ใน Bing จะถูกรวมเข้ากับโครงสร้างพื้นฐานการวัดและการทดสอบการผลิตที่มีอยู่ขององค์กรวิศวกรรม Bing ตัวอย่างเช่น ผู้ทดสอบทีมสีแดงจากภูมิภาคและพื้นหลังต่าง ๆ อย่างต่อเนื่องและเป็นระบบในการประนีประนอมระบบ และการค้นพบของพวกเขาถูกใช้เพื่อขยายชุดข้อมูลที่ Bing ใช้เพื่อปรับปรุงระบบ  

การทดสอบทีมสีแดงและการทดสอบความเครียดอาจแสดงถึงความเสี่ยงที่เฉพาะเจาะจง แต่ในผู้ใช้การผลิตจะมีการสนทนาหลายล้านประเภทกับ Copilot ใน Bing ยิ่งไปกว่านั้นการสนทนามีหลายเลี้ยวและตามบริบทและการระบุเนื้อหาที่เป็นอันตรายภายในการสนทนาเป็นงานที่ซับซ้อน เพื่อให้เข้าใจและจัดการกับความเสี่ยงใน Copilot ในประสบการณ์ Bing AI ได้ดียิ่งขึ้น เราได้พัฒนาตัวชี้วัด AI ที่มีความรับผิดชอบเพิ่มเติมเฉพาะสําหรับประสบการณ์ AI ใหม่เหล่านั้นสําหรับการวัดความเสี่ยงที่อาจเกิดขึ้น เช่น การแหกคุก เนื้อหาที่เป็นอันตราย และเนื้อหาที่ไม่มีพื้นหน้า นอกจากนี้ เรายังเปิดใช้งานการวัดที่ขนาดผ่านไปป์ไลน์การวัดอัตโนมัติบางส่วน ทุกครั้งที่มีการเปลี่ยนแปลงของผลิตภัณฑ์ การแก้ไขที่มีอยู่หรือมีการนําเสนอการแก้ไขใหม่ เราจะอัปเดตไปป์ไลน์การวัดของเราเพื่อประเมินทั้งประสิทธิภาพของผลิตภัณฑ์และเมตริก AI ที่รับผิดชอบ  

ตัวอย่างเช่น ขั้นตอนการวัดแบบอัตโนมัติบางส่วนที่ได้รับการอัปเดตสําหรับเนื้อหาที่เป็นอันตรายประกอบด้วยนวัตกรรมที่สําคัญสองประการ ได้แก่ การจําลองการสนทนาและคําอธิบายประกอบการสนทนาอัตโนมัติที่ผ่านการตรวจสอบโดยมนุษย์ ขั้นแรกผู้เชี่ยวชาญที่มีความรับผิดชอบของ AI สร้างเทมเพลตเพื่อจัดเก็บโครงสร้างและเนื้อหาของการสนทนาที่อาจส่งผลให้เกิดเนื้อหาที่เป็นอันตรายประเภทต่างๆ จากนั้นเทมเพลตเหล่านี้จะถูกมอบให้กับตัวแทนการสนทนาซึ่งโต้ตอบในฐานะผู้ใช้สมมติกับ Copilot ใน Bing สร้างการสนทนาจําลอง เพื่อระบุว่าการสนทนาที่จําลองขึ้นเหล่านี้มีเนื้อหาที่เป็นอันตรายหรือไม่ เราได้ให้คําแนะนําที่นักภาษาศาสตร์ผู้เชี่ยวชาญใช้เพื่อติดป้ายข้อมูลและปรับเปลี่ยนเพื่อใช้โดย GPT-4 ติดป้ายการสนทนาตามขนาด ปรับแนวทางจนกว่าจะมีข้อตกลงที่สําคัญระหว่างการสนทนาที่มีชื่อแบบโมเดลและการสนทนาที่มนุษย์ติดป้ายชื่อไว้ สุดท้าย เราใช้การสนทนาที่มีโมเดลกํากับเพื่อคํานวณเมตริก AI ที่มีความรับผิดชอบซึ่งรวบรวมประสิทธิผลของ Copilot ใน Bing เพื่อบรรเทาเนื้อหาที่เป็นอันตราย   

ไปป์ไลน์การวัดผลของเราช่วยให้เราสามารถทําการวัดอย่างรวดเร็วสําหรับความเสี่ยงที่อาจเกิดขึ้นในขนาด เมื่อเราระบุปัญหาใหม่ๆ ผ่านช่วงตัวอย่างและทําการทดสอบทีมสีแดงอย่างต่อเนื่อง เราจึงยังคงขยายชุดการวัดเพื่อประเมินความเสี่ยงเพิ่มเติม  

ดังที่เราได้ระบุถึงความเสี่ยงที่อาจเกิดขึ้นและการใช้งานในทางที่ผิดผ่านกระบวนการต่างๆ เช่น การทดสอบทีมสีแดงและการทดสอบความเครียด และวัดผลด้วยแนวทางที่เป็นนวัตกรรมใหม่ตามที่อธิบายไว้ข้างต้น เราได้พัฒนาการแก้ไขเพิ่มเติมให้กับผู้ที่ใช้สําหรับการค้นหาแบบดั้งเดิม ด้านล่างนี้ เราอธิบายเกี่ยวกับการแก้ไขบางอย่างเหล่านั้น เราจะดําเนินการตรวจสอบ Copilot ในประสบการณ์ Bing AI อย่างต่อเนื่องเพื่อปรับปรุงประสิทธิภาพและการบรรเทาผลิตภัณฑ์  

การเผยแพร่แบบเป็นระยะ การประเมินอย่างต่อเนื่อง เรามุ่งมั่นที่จะเรียนรู้และปรับปรุงแนวทาง AI ที่มีความรับผิดชอบของเราอย่างต่อเนื่องเมื่อเทคโนโลยีและพฤติกรรมผู้ใช้ของเราพัฒนาขึ้น กลยุทธ์การเผยแพร่ที่เพิ่มขึ้นของเราเป็นส่วนสําคัญของวิธีที่เราย้ายเทคโนโลยีของเราอย่างปลอดภัยจากห้องแล็บเข้าสู่โลก และเรามุ่งมั่นที่จะสร้างกระบวนการที่รอบคอบและรอบคอบเพื่อรักษาความปลอดภัยประโยชน์ของ Copilot ใน Bing การจํากัดจํานวนบุคคลที่สามารถเข้าถึงได้ในช่วงแสดงตัวอย่างช่วยให้เราสามารถค้นพบวิธีที่ผู้คนใช้ Copilot ใน Bing รวมถึงวิธีที่ผู้คนอาจนําไปใช้ในทางที่ผิด เพื่อให้เราสามารถพยายามบรรเทาปัญหาที่เกิดขึ้นใหม่ก่อนเผยแพร่ในวงกว้าง ตัวอย่างเช่น เรากําหนดให้ผู้ใช้ต้องรับรองความถูกต้องโดยใช้บัญชี Microsoft ของพวกเขาก่อนที่จะเข้าถึงประสบการณ์การใช้งาน Bing ใหม่เต็มรูปแบบ ผู้ใช้ที่ไม่ได้รับการรับรองความถูกต้องสามารถเข้าถึงตัวอย่างที่จํากัดของประสบการณ์การใช้งานเท่านั้น ขั้นตอนเหล่านี้จะกีดกันการละเมิดและช่วยให้เรา (ตามความจําเป็น) ดําเนินการอย่างเหมาะสมเพื่อตอบสนองต่อการละเมิดแนวทางปฏิบัติ  เรากําลังทําการเปลี่ยนแปลง Copilot ใน Bing ทุกวันเพื่อปรับปรุงประสิทธิภาพของผลิตภัณฑ์ ปรับปรุงการแก้ไขที่มีอยู่ และนําการแก้ไขใหม่ๆ ไปใช้เพื่อตอบสนองต่อการเรียนรู้ของเราในช่วงการแสดงตัวอย่าง  

การต่อสายดินในผลลัพธ์การค้นหา ตามที่ระบุไว้ข้างต้น Copilot ใน Bing ได้รับการออกแบบมาเพื่อให้การตอบกลับที่ได้รับการสนับสนุนโดยข้อมูลในผลลัพธ์การค้นหาเว็บเมื่อผู้ใช้ค้นหาข้อมูล ตัวอย่างเช่นระบบได้รับข้อความจากผลการค้นหาและคําแนะนําสูงสุดผ่าน metaprompt เพื่อตอบกลับ อย่างไรก็ตาม ในการสรุปเนื้อหาจากเว็บ Copilot ใน Bing อาจมีข้อมูลในการตอบกลับที่ไม่ได้อยู่ในแหล่งการป้อนข้อมูล กล่าวอีกนัยหนึ่งอาจให้ผลลัพธ์ที่ไม่เป็นพื้นหน้า การประเมินผลก่อนหน้านี้ของเราได้ระบุว่าผลลัพธ์ที่ไม่แน่นอนในการแชทอาจพบได้บ่อยกว่าสําหรับพร้อมท์หรือหัวข้อบางประเภทมากกว่าหัวข้ออื่นๆ เช่น การขอการคํานวณทางคณิตศาสตร์ ข้อมูลทางการเงินหรือตลาด (ตัวอย่างเช่น รายได้ของบริษัท ข้อมูลประสิทธิภาพหุ้น) และข้อมูล เช่น วันที่แม่นยําของเหตุการณ์หรือราคาสินค้าเฉพาะ ผู้ใช้ควรใช้ความระมัดระวังและใช้วิจารณญาณที่ดีที่สุดเมื่อดูผลลัพธ์การค้นหาแบบสรุป ไม่ว่าจะเป็นในหน้าผลลัพธ์การค้นหาหรือในประสบการณ์การแชท เราได้ดําเนินมาตรการหลายอย่างเพื่อลดความเสี่ยงที่ผู้ใช้อาจใช้เนื้อหาที่สร้างขึ้นแบบไม่เบื้องหลังมากเกินไปในสถานการณ์การสรุปและประสบการณ์การแชท ตัวอย่างเช่น การตอบสนองใน Copilot ใน Bing ที่ยึดตามผลลัพธ์การค้นหารวมถึงการอ้างอิงไปยังเว็บไซต์ต้นทางสําหรับผู้ใช้เพื่อตรวจสอบการตอบกลับและเรียนรู้เพิ่มเติม ผู้ใช้ยังได้รับการแจ้งให้ทราบอย่างชัดเจนว่าพวกเขากําลังโต้ตอบกับระบบ AI และแนะนําให้ตรวจสอบแหล่งผลลัพธ์เว็บเพื่อช่วยให้พวกเขาใช้วิจารณญาณที่ดีที่สุด  

ตัวจัดประเภทตาม AI และ metaprompting เพื่อลดความเสี่ยงที่อาจเกิดขึ้นหรือการใช้งานในทางที่ผิด การใช้ LLM อาจทําให้เกิดเนื้อหาที่เป็นปัญหาซึ่งอาจนําไปสู่ความเสี่ยงหรือการใช้งานในทางที่ผิด ตัวอย่างเช่น ผลลัพธ์ที่เกี่ยวข้องกับการทําร้ายตัวเอง ความรุนแรง เนื้อหากราฟิก ทรัพย์สินทางปัญญา ข้อมูลที่ไม่ถูกต้อง คําพูดที่เกลียดชัง หรือข้อความที่อาจเกี่ยวข้องกับกิจกรรมที่ผิดกฎหมาย Classifiers และ metaprompting เป็นสองตัวอย่างของการบรรเทาที่ถูกนํามาใช้ใน Copilot ใน Bing เพื่อลดความเสี่ยงของเนื้อหาประเภทนี้ ตัวจัดประเภทจัดประเภทข้อความเพื่อตั้งค่าสถานะชนิดต่างๆ ของเนื้อหาที่อาจเป็นอันตรายในคิวรีการค้นหา พร้อมท์การแชท หรือการตอบกลับที่สร้างขึ้น Bing ใช้ตัวจัดประเภทตาม AI และตัวกรองเนื้อหา ซึ่งนําไปใช้กับผลลัพธ์การค้นหาทั้งหมดและฟีเจอร์ที่เกี่ยวข้อง เราออกแบบตัวจัดประเภทพร้อมท์และตัวกรองเนื้อหาเพิ่มเติมเพื่อจัดการกับความเสี่ยงที่อาจเกิดขึ้นที่เพิ่มโดย Copilot ในฟีเจอร์ Bing โดยเฉพาะ ค่าสถานะนําไปสู่การบรรเทาที่อาจเกิดขึ้น เช่น การไม่ส่งกลับเนื้อหาที่สร้างขึ้นให้กับผู้ใช้ เปลี่ยนผู้ใช้ไปยังหัวข้ออื่น หรือเปลี่ยนเส้นทางผู้ใช้ไปยังการค้นหาแบบดั้งเดิม Metaprompting เกี่ยวข้องกับการให้คําแนะนําแก่โมเดลเพื่อเป็นแนวทางในการทํางาน รวมถึงเพื่อให้ระบบทํางานตามหลักการ AI ของ Microsoft และความคาดหวังของผู้ใช้ ตัวอย่างเช่น metaprompt อาจมีบรรทัดเช่น "สื่อสารในภาษาที่เลือกของผู้ใช้"   

การปกป้องความเป็นส่วนตัวใน Visual Search ใน Copilot ใน Bing เมื่อผู้ใช้อัปโหลดรูปภาพเป็นส่วนหนึ่งของพร้อมท์การแชท Copilot ใน Bing จะใช้เทคโนโลยีการเบลอใบหน้าก่อนที่จะส่งรูปภาพไปยังโมเดล AI การเบลอใบหน้าใช้เพื่อปกป้องความเป็นส่วนตัวของบุคคลในภาพ เทคโนโลยีการเบลอใบหน้าขึ้นอยู่กับเงื่อนงําบริบทเพื่อกําหนดตําแหน่งที่จะเบลอ และจะพยายามเบลอใบหน้าทั้งหมด เมื่อใบหน้าเบลอ โมเดล AI อาจเปรียบเทียบภาพที่ป้อนเข้ากับภาพที่พร้อมใช้งานแบบสาธารณะบนอินเทอร์เน็ต ตัวอย่างเช่น Copilot ใน Bing อาจสามารถระบุผู้เล่นบาสเกตบอลที่มีชื่อเสียงจากรูปถ่ายของผู้เล่นคนนั้นในสนามบาสเกตบอลโดยการสร้างการแสดงตัวเลขที่สะท้อนจํานวนเสื้อเจอร์ซีย์ของผู้เล่นสีเจอร์ซีย์การปรากฏตัวของห่วงบาสเกตบอล เป็นต้น Copilot ใน Bing จะไม่จัดเก็บการแสดงเป็นตัวเลขของผู้คนจากรูปภาพที่อัปโหลดและไม่ได้แบ่งปันกับบุคคลที่สาม Copilot ใน Bing ใช้การแสดงเป็นตัวเลขของรูปภาพที่ผู้ใช้อัปโหลดเพื่อวัตถุประสงค์ในการตอบสนองต่อพร้อมท์ของผู้ใช้เท่านั้น จากนั้นรูปภาพเหล่านั้นจะถูกลบภายใน 30 วันหลังจากการแชทสิ้นสุดลง    

หากผู้ใช้ถาม Copilot ใน Bing สําหรับข้อมูลเกี่ยวกับรูปภาพที่อัปโหลด การตอบกลับการแชทอาจสะท้อนถึงผลกระทบของการเบลอใบหน้าต่อความสามารถของโมเดลในการให้ข้อมูลเกี่ยวกับรูปภาพที่อัปโหลด ตัวอย่างเช่น Copilot ใน Bing อาจอธิบายบางคนว่าใบหน้าไม่ชัดเจน    

การจํากัดการลอยตัวของการสนทนา ในช่วงเวลาการแสดงตัวอย่าง เราได้เรียนรู้ว่าเซสชันการแชทที่ยาวมากอาจส่งผลให้เกิดการตอบกลับที่ซ้ําๆ ไม่มีประโยชน์ หรือไม่สอดคล้องกับ Copilot ในน้ําเสียงที่ Bing ตั้งใจไว้ เพื่อแก้ไขการลอยตัวของการสนทนานี้ เราได้จํากัดจํานวนรอบ (การแลกเปลี่ยนที่มีทั้งคําถามของผู้ใช้และการตอบกลับจาก Copilot ใน Bing) ต่อเซสชันการแชท เรายังคงประเมินแนวทางเพิ่มเติมเพื่อลดปัญหานี้ต่อไป  

การเพิ่มพร้อมท์ ในบางกรณี พร้อมท์ของผู้ใช้อาจไม่ชัดเจน เมื่อเกิดเหตุการณ์นี้ขึ้น Copilot ใน Bing อาจใช้ LLM เพื่อช่วยสร้างรายละเอียดเพิ่มเติมในพร้อมท์เพื่อช่วยให้แน่ใจว่าผู้ใช้จะได้รับการตอบสนองที่พวกเขากําลังค้นหา การเพิ่มพร้อมท์ดังกล่าวไม่ได้ขึ้นอยู่กับความรู้ของผู้ใช้หรือการค้นหาก่อนหน้าของพวกเขา แต่เป็นในรูปแบบ AI คิวรีที่แก้ไขเหล่านี้จะมองเห็นได้ในประวัติการแชทของผู้ใช้ และสามารถลบการค้นหาอื่นๆ ได้โดยใช้ตัวควบคุมในผลิตภัณฑ์  

การออกแบบที่ผู้ใช้เป็นศูนย์กลางและการแทรกแซงประสบการณ์ของผู้ใช้ การออกแบบที่เน้นผู้ใช้เป็นศูนย์กลางและประสบการณ์ของผู้ใช้เป็นแนวทางที่สําคัญของ Microsoft ในการจัดการ AI ที่มีความรับผิดชอบ เป้าหมายคือการออกแบบผลิตภัณฑ์รากตามความต้องการและความคาดหวังของผู้ใช้ เมื่อผู้ใช้โต้ตอบกับ Copilot ใน Bing เป็นครั้งแรก เรามีจุดสัมผัสต่างๆ ที่ออกแบบมาเพื่อช่วยให้พวกเขาเข้าใจความสามารถของระบบ เปิดเผยกับพวกเขาว่า Copilot ใน Bing ขับเคลื่อนโดย AI และข้อจํากัดในการสื่อสาร ประสบการณ์การใช้งานได้รับการออกแบบมาในลักษณะนี้เพื่อช่วยให้ผู้ใช้ได้รับประโยชน์สูงสุดจาก Copilot ใน Bing และลดความเสี่ยงของความอดทน องค์ประกอบของประสบการณ์นี้ยังช่วยให้ผู้ใช้เข้าใจ Copilot ใน Bing และการโต้ตอบกับบัญชีได้ดียิ่งขึ้น ซึ่งรวมถึงคําแนะนําการแชทเฉพาะสําหรับ AI ที่รับผิดชอบ (ตัวอย่างเช่น Bing ใช้ AI อย่างไร เหตุใด Copilot ใน Bing จึงไม่ตอบสนองในบางหัวข้อ) คําอธิบายเกี่ยวกับข้อจํากัด วิธีที่ผู้ใช้สามารถเรียนรู้เพิ่มเติมเกี่ยวกับวิธีที่ระบบทํางานและรายงานคําติชม และการอ้างอิงที่สามารถนําทางได้ที่ปรากฏในการตอบสนองเพื่อแสดงผลลัพธ์และหน้าที่มีการตอบกลับแก่ผู้ใช้ได้อย่างง่ายดาย  

การเปิดเผยข้อมูล AI Copilot ใน Bing มีจุดสัมผัสมากมายสําหรับการเปิดเผย AI ที่มีความหมาย ซึ่งผู้ใช้จะได้รับแจ้งว่าพวกเขาโต้ตอบกับระบบ AI และมีโอกาสเรียนรู้เพิ่มเติมเกี่ยวกับ Copilot ใน Bing การส่งเสริมให้ผู้ใช้ที่มีความรู้นี้สามารถช่วยให้พวกเขาหลีกเลี่ยงการพึ่งพา AI มากเกินไปและเรียนรู้เกี่ยวกับจุดแข็งและข้อจํากัดของระบบ  

การพิสูจน์ของสื่อMicrosoft Designer เปิดใช้งานฟีเจอร์ "ข้อมูลประจําตัวของเนื้อหา" ซึ่งใช้วิธีการเข้ารหัสลับเพื่อทําเครื่องหมายแหล่งที่มา หรือ "การพิสูจน์" ของรูปภาพที่สร้างขึ้นโดย AI ทั้งหมดที่สร้างขึ้นบน Designer ฟีเจอร์ลายน้ําดิจิทัลที่มองไม่เห็นจะแสดงแหล่งข้อมูล เวลา และวันที่ของการสร้างต้นฉบับ และข้อมูลนี้ไม่สามารถเปลี่ยนแปลงได้ เทคโนโลยีนี้ใช้มาตรฐานที่กําหนดโดย Coalition สําหรับเนื้อหาและการรับรองความถูกต้อง (C2PA) เพื่อเพิ่มความเชื่อถือและความโปร่งใสเพิ่มเติมสําหรับรูปภาพที่สร้างขึ้นโดย AI Microsoft เป็นผู้ร่วมก่อตั้ง C2PA และมีส่วนร่วมกับเทคโนโลยีพิสูจน์เนื้อหาดิจิทัลหลัก 

ข้อกําหนดการใช้และจรรยาบรรณ ทรัพยากรนี้ควบคุมการใช้ Copilot ใน Bing ผู้ใช้ควรปฏิบัติตาม ข้อกําหนดการใช้และแนวทางปฏิบัติ ซึ่งนอกเหนือจากนั้นจะแจ้งให้พวกเขาทราบถึงการใช้งานที่อนุญาตและไม่ได้รับอนุญาต และผลที่ตามมาของการละเมิดข้อกําหนด ข้อตกลงการใช้งานยังให้การเปิดเผยเพิ่มเติมแก่ผู้ใช้และทําหน้าที่เป็นข้อมูลอ้างอิงที่มีประโยชน์สําหรับผู้ใช้เพื่อเรียนรู้เกี่ยวกับ Copilot ใน Bing   

การดําเนินงานและการตอบสนองอย่างรวดเร็ว เรายังใช้ Copilot ในกระบวนการตรวจสอบและการดําเนินงานอย่างต่อเนื่องของ Bing เพื่อจัดการเมื่อ Copilot ใน Bing ได้รับสัญญาณ หรือได้รับรายงาน ซึ่งระบุถึงการใช้งานในทางที่ผิดหรือการละเมิด ข้อกําหนดการใช้หรือแนวทางปฏิบัติที่อาจเกิดขึ้น  

คําติชม การตรวจสอบ และการกํากับดูแล ประสบการณ์การใช้งาน Copilot ใน Bing สร้างขึ้นบนเครื่องมือที่มีอยู่ซึ่งช่วยให้ผู้ใช้สามารถส่งคําติชมและรายงานความกังวล ซึ่งได้รับการตรวจสอบโดยทีมปฏิบัติการของ Microsoft กระบวนการในการดําเนินงานของ Bing ได้ขยายเพื่อรองรับฟีเจอร์ภายใน Copilot ในประสบการณ์การใช้งานของ Bing เช่น การอัปเดตหน้า รายงานความกังวล เพื่อรวมเนื้อหาชนิดใหม่ที่ผู้ใช้สร้างขึ้นด้วยความช่วยเหลือของโมเดล   

แนวทางของเราในการระบุ วัด และบรรเทาความเสี่ยงจะยังคงพัฒนาต่อไปเมื่อเราเรียนรู้เพิ่มเติม และเรากําลังทําการปรับปรุงตามคําติชมที่รวบรวมมาในช่วงการแสดงตัวอย่าง     

การตรวจจับเนื้อหาอัตโนมัติ เมื่อผู้ใช้อัปโหลดรูปภาพเป็นส่วนหนึ่งของพร้อมท์การแชท Copilot ใน Bing จะใช้เครื่องมือในการตรวจหาการแสวงหาผลประโยชน์ทางเพศของเด็กและภาพที่ไม่เหมาะสม (CSEAI) เทคโนโลยีการจับคู่แฮชของ PhotoDNA ที่เด่นชัดที่สุด Microsoft พัฒนา PhotoDNA เพื่อช่วยค้นหารายการที่ซ้ํากันของ CSEAI ที่รู้จัก Microsoft รายงาน CSEAI ที่เห็นได้ชัดทั้งหมดไปยังศูนย์คุ้มครองเด็กหายและเด็กถูกเอาเปรียบแห่งชาติ (NCMEC) ตามที่กฎหมายของสหรัฐอเมริกากําหนด เมื่อผู้ใช้อัปโหลดไฟล์เพื่อวิเคราะห์หรือประมวลผล Copilot จะปรับใช้การสแกนอัตโนมัติเพื่อตรวจหาเนื้อหาที่อาจทําให้เกิดความเสี่ยงหรือการใช้งานในทางที่ผิด เช่น ข้อความที่อาจเกี่ยวข้องกับกิจกรรมที่ผิดกฎหมายหรือรหัสที่เป็นอันตราย

การปกป้องความเป็นส่วนตัว  

ความเชื่อมานานแล้วของ Microsoft ว่าความเป็นส่วนตัวเป็นสิทธิมนุษยชนขั้นพื้นฐานได้แจ้งให้ทราบถึงการพัฒนาและการปรับใช้ Copilot ในประสบการณ์ Bing ของ Microsoft ทุกขั้นตอน พันธสัญญาของเราในการปกป้องความเป็นส่วนตัวของผู้ใช้ทั้งหมด รวมถึงโดยการให้บุคคลที่มีความโปร่งใสและการควบคุมข้อมูลของพวกเขาและการรวมความเป็นส่วนตัวโดยการออกแบบผ่านการลดข้อมูลและข้อจํากัดวัตถุประสงค์เป็นพื้นฐานของ Copilot ใน Bing เมื่อเราพัฒนาวิธีการของเราในการมอบประสบการณ์ AI เชิงสร้างสรรค์ของ Copilot ใน Bing เราจะสํารวจอย่างต่อเนื่องว่าวิธีที่ดีที่สุดในการปกป้องความเป็นส่วนตัว เอกสารฉบับนี้จะได้รับการอัปเดตเมื่อเราดําเนินการดังกล่าว ข้อมูลเพิ่มเติมเกี่ยวกับวิธีการที่ Microsoft ปกป้องความเป็นส่วนตัวของผู้ใช้ของเรามีอยู่ในนโยบายความเป็นส่วนตัวของ Microsoft  

ในประสบการณ์การใช้งาน Copilot ใน Windows ทักษะของ Windows อาจเป็นส่วนหนึ่งของฟังก์ชันการทํางานแชร์ข้อมูลผู้ใช้กับการสนทนาทางแชท ทั้งนี้ขึ้นอยู่กับการอนุมัติจากผู้ใช้และพร้อมท์ UI จะแสดงขึ้นเพื่อยืนยันเจตนาของผู้ใช้ก่อนที่จะแชร์ข้อมูลผู้ใช้กับการสนทนาการสนทนา

Microsoft ยังคงพิจารณาความต้องการของเด็กและคนหนุ่มสาวในฐานะส่วนหนึ่งของการประเมินความเสี่ยงของคุณสมบัติ AI ที่สร้างใหม่ใน Copilot ใน Bing บัญชีสําหรับเด็กของ Microsoft ทั้งหมดที่ระบุผู้ใช้ที่มีอายุต่ํากว่า 13 ปี หรือตามที่ระบุไว้ภายใต้กฎหมายท้องถิ่นจะไม่สามารถลงชื่อเข้าใช้เพื่อเข้าถึงประสบการณ์การใช้งาน Bing ใหม่เต็มรูปแบบได้   

ตามที่อธิบายไว้ข้างต้น สําหรับผู้ใช้ทุกคนที่เราได้ใช้การป้องกันที่บรรเทาเนื้อหาที่อาจเป็นอันตราย ใน Copilot ใน Bing ผลลัพธ์จะถูกตั้งค่าเป็น โหมดเคร่งครัดของ Bing SafeSearch ซึ่งมีระดับการป้องกันความปลอดภัยสูงสุดในการค้นหาหลักของ Bing จึงเป็นการป้องกันไม่ให้ผู้ใช้รวมถึงผู้ใช้วัยรุ่นสัมผัสกับเนื้อหาที่อาจเป็นอันตราย นอกเหนือจากข้อมูลที่เราให้ไว้ในเอกสารนี้และในคําถามที่ถามบ่อยของเราเกี่ยวกับฟีเจอร์การแชทข้อมูลเพิ่มเติมเกี่ยวกับวิธีการทํางานของ Copilot ใน Bing เพื่อหลีกเลี่ยงการตอบสนองด้วยเนื้อหาที่ไม่เหมาะสมที่ไม่คาดคิดในผลลัพธ์การค้นหามีอยู่ที่นี่  

Microsoft มุ่งมั่นที่จะไม่นําเสนอโฆษณาที่ปรับให้เป็นแบบส่วนตัวโดยยึดตามพฤติกรรมออนไลน์แก่เด็กซึ่งวันเกิดในบัญชี Microsoft ระบุว่ามีอายุต่ํากว่า 18 ปี การป้องกันที่สําคัญนี้จะขยายไปยังโฆษณาใน Copilot ในฟีเจอร์ของ Bing ผู้ใช้อาจเห็นโฆษณาตามบริบทตามคิวรีหรือพร้อมท์ที่ใช้ในการโต้ตอบกับ Bing  

เพื่อปลดล็อกศักยภาพในการปฏิรูปของการสร้าง AI เราต้องสร้างความไว้วางใจในเทคโนโลยีผ่านการเพิ่มศักยภาพให้บุคคลเข้าใจว่าข้อมูลของพวกเขาถูกใช้อย่างไรและให้ทางเลือกที่มีความหมายและควบคุมข้อมูลของพวกเขา Copilot ใน Bing ได้รับการออกแบบมาเพื่อจัดลําดับความสําคัญของตัวแทนมนุษย์ ผ่านการให้ข้อมูลเกี่ยวกับวิธีการทํางานของผลิตภัณฑ์ตลอดจนข้อจํากัดและผ่านการขยายตัวเลือกและการควบคุมที่มีเสถียรภาพของเราในฟีเจอร์ของ Copilot ใน Bing   

นโยบายความเป็นส่วนตัวของ Microsoft ให้ข้อมูลเกี่ยวกับแนวทางปฏิบัติด้านความเป็นส่วนตัวที่โปร่งใสของเราในการปกป้องลูกค้าของเรา และจะกําหนดข้อมูลเกี่ยวกับการควบคุมที่ทําให้ผู้ใช้สามารถดูและจัดการข้อมูลส่วนบุคคลของตนได้ เพื่อช่วยให้แน่ใจว่าผู้ใช้มีข้อมูลที่พวกเขาต้องการเมื่อพวกเขาโต้ตอบกับฟีเจอร์การสนทนาใหม่ของ Bing การเปิดเผยข้อมูลในผลิตภัณฑ์จะแจ้งให้ผู้ใช้ทราบว่าพวกเขามีส่วนร่วมกับผลิตภัณฑ์ AI และเรามีลิงก์ไปยัง คําถามที่ถามบ่อย และคําอธิบายเพิ่มเติมเกี่ยวกับวิธีการทํางานของฟีเจอร์เหล่านี้ Microsoft จะยังคงรับฟังคําติชมจากผู้ใช้และจะเพิ่มรายละเอียดเพิ่มเติมเกี่ยวกับฟีเจอร์การสนทนาของ Bing ตามความเหมาะสมเพื่อสนับสนุนความเข้าใจเกี่ยวกับวิธีการทํางานของผลิตภัณฑ์   

นอกจากนี้ Microsoft ยังมีเครื่องมือที่แข็งแกร่งสําหรับผู้ใช้เพื่อใช้สิทธิ์ในข้อมูลส่วนบุคคลของพวกเขา สําหรับข้อมูลที่เก็บรวบรวมโดย Copilot ใน Bing รวมถึงผ่านคิวรีของผู้ใช้และพร้อมท์ แดชบอร์ดความเป็นส่วนตัวของ Microsoft จะให้เครื่องมือแก่ผู้ใช้ที่ได้รับการรับรองความถูกต้อง (ลงชื่อเข้าใช้) เพื่อใช้สิทธิ์ของเจ้าของข้อมูล ซึ่งรวมถึงโดยให้ผู้ใช้สามารถดู ส่งออก และลบประวัติการสนทนาที่เก็บไว้ได้ Microsoft ยังคงรับคําติชมเกี่ยวกับวิธีที่พวกเขาต้องการจัดการประสบการณ์การใช้งาน Bing ใหม่ของพวกเขา รวมถึงผ่านการใช้ประสบการณ์การจัดการข้อมูลในบริบท   

นอกจากนี้ Copilot ใน Bing ยังให้ความสําคัญกับคําขอภายใต้สิทธิ์ของยุโรปที่จะถูกลืม ตามกระบวนการที่ Microsoft พัฒนาและปรับปรุงสําหรับฟังก์ชันการค้นหาแบบดั้งเดิมของ Bing ผู้ใช้ทั้งหมดสามารถรายงานข้อกังวลเกี่ยวกับเนื้อหาและการตอบกลับที่สร้างขึ้น ได้ที่นี่ และผู้ใช้ในยุโรปของเราสามารถใช้ ฟอร์มนี้ เพื่อส่งคําขอเพื่อบล็อกผลลัพธ์การค้นหาในยุโรปภายใต้สิทธิ์ที่จะถูกลืม   

Copilot ใน Bing จะยอมรับตัวเลือกความเป็นส่วนตัวของผู้ใช้ รวมถึงตัวเลือกที่เคยทําไว้ใน Bing เช่น ความยินยอมในการเก็บรวบรวมและใช้ข้อมูลที่ได้รับการร้องขอผ่านแบนเนอร์คุกกี้และการควบคุมที่มีอยู่ในแดชบอร์ดความเป็นส่วนตัวของ Microsoft เราได้ใช้กระบวนการตรวจสอบภายในของเราเพื่อตรวจสอบอย่างรอบคอบถึงวิธีการนําเสนอแก่ผู้ใช้ เพื่อช่วยให้อิสระและหน่วยงานของผู้ใช้ตัดสินใจได้ 

นอกเหนือจากการควบคุมที่พร้อมใช้งานผ่านแดชบอร์ดความเป็นส่วนตัวของ Microsoft ซึ่งช่วยให้ผู้ใช้สามารถดู ส่งออก และลบประวัติการค้นหารวมถึงคอมโพเนนต์ของประวัติการแชทผู้ใช้ที่ได้รับการรับรองความถูกต้องซึ่งเปิดใช้งานฟีเจอร์ประวัติการแชทในผลิตภัณฑ์แล้วจะสามารถดู เข้าถึง และดาวน์โหลดประวัติการแชทผ่านการควบคุมในผลิตภัณฑ์ได้ ผู้ใช้อาจล้างการแชทที่เฉพาะเจาะจงจากประวัติการแชทหรือปิดฟังก์ชันประวัติการแชทได้ทุกเมื่อโดยไปที่หน้าการตั้งค่า Bing ผู้ใช้ยังสามารถเลือกว่าจะอนุญาตให้การตั้งค่าส่วนบุคคลเข้าถึงประสบการณ์การใช้งานที่ปรับให้เหมาะสมมากขึ้นด้วยคําตอบที่ปรับให้เป็นแบบส่วนตัวหรือไม่ ผู้ใช้สามารถเลือกไม่รับและไม่รับการตั้งค่าส่วนบุคคลได้ทุกเมื่อในการตั้งค่าการแชทในหน้าการตั้งค่า Bing  การล้างการแชทที่เฉพาะเจาะจงจากประวัติการแชทจะป้องกันไม่ให้มีการใช้การแชทนั้นเพื่อการตั้งค่าส่วนบุคคล  
 
ข้อมูลเพิ่มเติมเกี่ยวกับประวัติการแชทและการตั้งค่าส่วนบุคคลจะมีให้กับผู้ใช้ใน คําถามที่ถามบ่อยเกี่ยวกับ Copilot ใน Bing 

Copilot ใน Bing ถูกสร้างขึ้นโดยคํานึงถึงความเป็นส่วนตัว เพื่อให้มีการรวบรวมและใช้ข้อมูลส่วนบุคคลตามที่จําเป็นเท่านั้น และจะไม่เก็บรักษาไว้นานกว่าที่จําเป็น ตามที่กล่าวไว้ข้างต้น Visual Search ใน Copilot ใน Bing ใช้กลไกที่ทําให้ใบหน้าพร่ามัวในรูปภาพในเวลาที่อัปโหลดโดยผู้ใช้เพื่อไม่ให้ภาพใบหน้าได้รับการประมวลผลหรือจัดเก็บเพิ่มเติม ข้อมูลเพิ่มเติมเกี่ยวกับข้อมูลส่วนบุคคลที่ Bing เก็บรวบรวม วิธีการใช้ และวิธีการที่ Bing จัดเก็บและลบจะพร้อมใช้งานใน นโยบายความเป็นส่วนตัวของ Microsoft ซึ่งยังให้ข้อมูลเกี่ยวกับฟีเจอร์การแชทใหม่ของ Bing อีกด้วย   

Copilot ใน Bing มีนโยบายการเก็บและลบข้อมูลเพื่อช่วยให้แน่ใจว่าข้อมูลส่วนบุคคลที่รวบรวมผ่านฟีเจอร์การแชทของ Bing จะถูกเก็บไว้ตราบเท่าที่จําเป็นเท่านั้น   

เราจะยังคงเรียนรู้และพัฒนาแนวทางในการมอบ Copilot ใน Bing ต่อไป และเมื่อเราทําเช่นนั้น เราจะยังคงทํางานอย่างต่อเนื่องในสาขาวิชาต่างๆ เพื่อจัดนวัตกรรม AI ของเราให้สอดคล้องกับคุณค่าของมนุษย์และสิทธิพื้นฐาน รวมถึงการปกป้องผู้ใช้หนุ่มและความเป็นส่วนตัว   

Copilot ที่มีการป้องกันข้อมูลเชิงพาณิชย์ 

Copilot ที่มีการป้องกันข้อมูลเชิงพาณิชย์ ซึ่งเดิมเรียกว่า Bing Chat Enterprise ("BCE") ได้รับการเผยแพร่โดย Microsoft ในการแสดงตัวอย่างสาธารณะฟรีในเดือนกรกฎาคม 2023 ในฐานะ Add-on ฟรีสําหรับลูกค้า M365 บางราย Copilot ที่มีการป้องกันข้อมูลเชิงพาณิชย์เป็นประสบการณ์การค้นหาเว็บที่ได้รับการปรับปรุง AI สําหรับผู้ใช้ระดับองค์กร 

เช่นเดียวกับ Copilot ใน Bing เมื่อ Copilot ที่มีผู้ใช้ปลายทางการปกป้องข้อมูลเชิงพาณิชย์ป้อนพร้อมท์ลงในส่วนติดต่อพร้อมท์การสนทนาทันทีผลลัพธ์การค้นหายอดนิยมและ metaprompt จะถูกส่งเป็นการป้อนข้อมูลไปยัง LLM โมเดลจะสร้างการตอบกลับโดยใช้ประวัติการสนทนาแบบทันทีและทันทีเพื่อกําหนดบริบทคําขอ metaprompt เพื่อจัดแนวการตอบกลับด้วย Microsoft AI Principles และความคาดหวังของผู้ใช้ และผลลัพธ์การค้นหาจะขัดขวางการตอบสนองในเนื้อหาที่มีการจัดอันดับสูงที่มีอยู่จากเว็บ วิธีนี้ทํางานแบบเดียวกับ Copilot ใน Bing ตามที่อธิบายไว้ข้างต้นในเอกสารนี้ ยกเว้น Copilot ที่มีการปกป้องข้อมูลเชิงพาณิชย์จะใช้ประวัติการสนทนาทันทีเท่านั้น (ไม่ใช่ประวัติการสนทนาล่าสุด) เนื่องจากประวัติการแชทที่เก็บไว้ไม่ได้เป็นฟีเจอร์ที่ได้รับการสนับสนุนในปัจจุบัน Designer และ Visual Search พร้อมใช้งานแล้วในเวอร์ชันนี้ 

เช่นเดียวกับเทคโนโลยีการเปลี่ยนแปลงอื่นๆ การควบคุมสิทธิประโยชน์ของ AI ไม่ใช่ความเสี่ยง และส่วนหลักของโปรแกรม AI ที่รับผิดชอบของ Microsoft ถูกออกแบบมาเพื่อระบุความเสี่ยงที่อาจเกิดขึ้น วัดความชอบของพวกเขาที่อาจเกิดขึ้น และสร้างการบรรเทาเพื่อแก้ไขปัญหาเหล่านั้น คําอธิบายข้างต้นเกี่ยวกับความพยายามของ Microsoft ในการระบุ วัด และลดความเสี่ยงที่อาจเกิดขึ้นสําหรับ Copilot ใน Bing ยังใช้กับเวอร์ชันนี้ด้วยคําชี้แจงเกี่ยวกับการแก้ไขที่อธิบายไว้ด้านล่าง: 

การเผยแพร่แบบเป็นระยะ การประเมินอย่างต่อเนื่อง เช่นเดียวกับ Copilot Bing สําหรับ Copilot ที่มีการปกป้องข้อมูลเชิงพาณิชย์ เรายังใช้วิธีการเผยแพร่ที่เพิ่มขึ้นอีกด้วย ในวันที่ 18 กรกฎาคม 2023 Copilot ที่มีการปกป้องข้อมูลเชิงพาณิชย์กลายเป็นรุ่นตัวอย่างฟรีสําหรับลูกค้าองค์กรที่มีสิทธิ์ที่มีบัญชี M365 เฉพาะเพื่อเปิดสําหรับผู้ใช้ระดับองค์กรของพวกเขา สามสิบ (30) วันหลังจากแจ้งให้ลูกค้าองค์กรที่มีสิทธิ์ทราบ Copilot ที่มีการปกป้องข้อมูลเชิงพาณิชย์กลายเป็น "เปิด" เป็นค่าเริ่มต้นสําหรับลูกค้ารายเดียวกัน Copilot ที่มีการปกป้องข้อมูลเชิงพาณิชย์ยังมีให้ใช้งานสําหรับบัญชี M365 ของคณะการศึกษาที่เฉพาะเจาะจง Copilot ที่มีการปกป้องข้อมูลเชิงพาณิชย์โดยทั่วไปจะพร้อมใช้งานสําหรับลูกค้าองค์กรบางรายในวันที่ 1 ธันวาคม 2023 ในอนาคต เราวางแผนที่จะขยายการเข้าถึง Copilot ด้วยการป้องกันข้อมูลเชิงพาณิชย์ให้กับผู้ใช้ Microsoft Entra ID มากขึ้น

ข้อกําหนดการใช้และจรรยาบรรณ ผู้ใช้ Copilot ที่มีการป้องกันข้อมูลเชิงพาณิชย์จะต้องปฏิบัติตามข้อตกลงการใช้งานของผู้ใช้ปลายทาง ข้อตกลงการใช้งานเหล่านี้แจ้งให้ผู้ใช้ทราบถึงการใช้งานที่อนุญาตและไม่สามารถใช้ได้ และผลที่ตามมาของการละเมิดข้อกําหนด  

การดําเนินงานและการตอบสนองอย่างรวดเร็ว นอกจากนี้ เรายังใช้ Copilot ในกระบวนการตรวจสอบและดําเนินการอย่างต่อเนื่องของ Bing เพื่อจัดการเมื่อ Copilot ที่มีการปกป้องข้อมูลเชิงพาณิชย์ได้รับสัญญาณ หรือได้รับรายงาน ซึ่งระบุถึงการใช้งานในทางที่ผิดหรือการละเมิดข้อกําหนดการใช้งานของผู้ใช้ปลายทาง 

คําติชม การตรวจสอบ และการกํากับดูแล Copilot ที่มีการป้องกันข้อมูลเชิงพาณิชย์จะใช้เครื่องมือเดียวกันกับ Copilot ใน Bing เพื่อให้ผู้ใช้ส่งคําติชมและรายงานปัญหา ซึ่งได้รับการตรวจสอบโดยทีมปฏิบัติการของ Microsoft Copilot ในกระบวนการการดําเนินงานของ Bing ได้ขยายเพื่อรองรับฟีเจอร์ภายใน Copilot ด้วยประสบการณ์การปกป้องข้อมูลเชิงพาณิชย์ ตัวอย่างเช่น การอัปเดตหน้ารายงานข้อกังวลเพื่อรวมเนื้อหาประเภทใหม่ที่ผู้ใช้สร้างขึ้นด้วยความช่วยเหลือของโมเดล  

เพื่อช่วยให้แน่ใจว่าผู้ใช้ปลายทางมีข้อมูลที่พวกเขาต้องการเมื่อพวกเขาโต้ตอบกับ Copilot ด้วยการปกป้องข้อมูลเชิงพาณิชย์ มีเอกสารประกอบของผลิตภัณฑ์ที่ด้านล่างของเอกสารนี้ รวมถึงหน้าคําถามที่ถามบ่อยและเรียนรู้เพิ่มเติม 

พร้อมท์และการตอบกลับที่สร้างขึ้นโดยผู้ใช้ใน Copilot ที่มีการปกป้องข้อมูลเชิงพาณิชย์จะได้รับการประมวลผลและจัดเก็บในการจัดแนวตามมาตรฐานการจัดการข้อมูลขององค์กร ขณะนี้ Copilot ที่มีข้อเสนอการปกป้องข้อมูลเชิงพาณิชย์พร้อมให้บริการแก่ลูกค้าองค์กรและผู้ใช้ที่เป็นผู้ใหญ่ที่ได้รับการรับรองความถูกต้องแล้วเท่านั้น ดังนั้น เราจึงไม่คาดหวังให้เด็กหรือคนหนุ่มสาวเป็นผู้ใช้ Copilot ที่มีการป้องกันข้อมูลเชิงพาณิชย์ในขณะนี้ นอกจากนี้ Copilot ที่มีการปกป้องข้อมูลเชิงพาณิชย์จะไม่มีโฆษณาที่กําหนดเป้าหมายตามพฤติกรรมใดๆ แก่ผู้ใช้ แต่โฆษณาที่แสดงจะเป็นโฆษณาที่เกี่ยวข้องตามบริบทเท่านั้น  

เรียนรู้เพิ่มเติม

เอกสารนี้เป็นส่วนหนึ่งของความพยายามที่กว้างขึ้นที่ Microsoft เพื่อนําหลักการ AI ของเรามาปฏิบัติ เมื่อต้องการค้นหาข้อมูลเพิ่มเติม ให้ดู:

แนวทางของ Microsoft ต่อ AI ที่มีความรับผิดชอบ

มาตรฐาน AI ที่รับผิดชอบของ Microsoft

ทรัพยากร AI ที่รับผิดชอบของ Microsoft  

หลักสูตร Microsoft Azure Learning เกี่ยวกับ AI ที่รับผิดชอบ  

เกี่ยวกับเอกสารนี้  

© 2023 Microsoft สงวนลิขสิทธิ์ เอกสารนี้มีให้ "ตามที่เป็น" และเพื่อวัตถุประสงค์ในการให้ข้อมูลเท่านั้น ข้อมูลและมุมมองที่แสดงในเอกสารนี้ รวมถึง URL และการอ้างอิงเว็บไซต์อินเทอร์เน็ตอื่นๆ อาจเปลี่ยนแปลงได้โดยไม่ต้องแจ้งให้ทราบ คุณต้องยอมรับความเสี่ยงในการใช้งาน บางตัวอย่างมีไว้สําหรับภาพประกอบเท่านั้นและสมมุติ ไม่มีการเชื่อมโยงจริงที่มีเจตนาหรืออนุมาน  

ต้องการความช่วยเหลือเพิ่มเติมหรือไม่

ต้องการตัวเลือกเพิ่มเติมหรือไม่

สํารวจสิทธิประโยชน์ของการสมัครใช้งาน เรียกดูหลักสูตรการฝึกอบรม เรียนรู้วิธีการรักษาความปลอดภัยอุปกรณ์ของคุณ และอื่นๆ

ชุมชนช่วยให้คุณถามและตอบคําถาม ให้คําติชม และรับฟังจากผู้เชี่ยวชาญที่มีความรู้มากมาย

ข้อมูลนี้เป็นประโยชน์หรือไม่

คุณพึงพอใจกับคุณภาพภาษาเพียงใด
สิ่งที่ส่งผลต่อประสบการณ์ใช้งานของคุณ
เมื่อกดส่ง คำติชมของคุณจะถูกใช้เพื่อปรับปรุงผลิตภัณฑ์และบริการของ Microsoft ผู้ดูแลระบบ IT ของคุณจะสามารถรวบรวมข้อมูลนี้ได้ นโยบายความเป็นส่วนตัว

ขอบคุณสำหรับคำติชมของคุณ!

×