Bỏ qua để tới nội dung chính
Đăng nhập với Microsoft
Đăng nhập hoặc tạo một tài khoản.
Xin chào,
Chọn một tài khoản khác.
Bạn có nhiều tài khoản
Chọn tài khoản bạn muốn đăng nhập.

Cập nhật lần cuối: Tháng 2 năm 2024

Thông tin cơ bản về Copilot trong Bing   

Giới thiệu  

Vào tháng 2 năm 2023, Microsoft đã ra mắt Bing mới, một trải nghiệm tìm kiếm web nâng cao ai. Nó hỗ trợ người dùng bằng cách tóm tắt kết quả tìm kiếm trên web và cung cấp trải nghiệm trò chuyện. Người dùng cũng có thể tạo nội dung sáng tạo, chẳng hạn như thơ, truyện cười, câu chuyện và với Bing Image Creator, hình ảnh. Bing được cải tiến bằng AI mới chạy trên nhiều công nghệ tiên tiến từ Microsoft và OpenAI, bao gồm GPT-4, một mô hình ngôn ngữ lớn vượt trội (LLM) và DALL-E, một mô hình học sâu để tạo ra hình ảnh kỹ thuật số từ mô tả ngôn ngữ tự nhiên, cả hai đều từ OpenAI. Chúng tôi đã làm việc với cả hai mô hình trong nhiều tháng trước khi phát hành công khai để phát triển một tập hợp các khả năng và kỹ thuật tùy chỉnh để tham gia công nghệ AI tiên tiến này và tìm kiếm web trong Bing mới.  Vào tháng 11 năm 2023, Microsoft đổi tên Bing mới thành Copilot trong Bing.

Tại Microsoft, chúng tôi nghiêm túc cam kết chịu trách nhiệm về AI. Copilot trong trải nghiệm Bing đã được phát triển cùng với các Nguyên tắc AI của Microsoft, Tiêu chuẩn AI Chịu trách nhiệm của Microsoft và cộng tác với các chuyên gia AI chịu trách nhiệm trong toàn công ty, bao gồm Văn phòng AI Chịu trách nhiệm của Microsoft, nhóm kỹ thuật của chúng tôi, Nghiên cứu của Microsoft và Aether. Bạn có thể tìm hiểu thêm về AI chịu trách nhiệm tại Microsoft tại đây.  

Trong tài liệu này, chúng tôi mô tả phương pháp tiếp cận ai chịu trách nhiệm cho Copilot trong Bing. Trước khi phát hành, chúng tôi đã áp dụng các phương pháp tiên tiến để xác định, đo lường và giảm thiểu rủi ro tiềm ẩn, lạm dụng hệ thống và để bảo đảm lợi ích cho người dùng. Vì chúng tôi đã tiếp tục phát triển Copilot trong Bing kể từ lần đầu tiên phát hành, chúng tôi cũng đã tiếp tục tìm hiểu và cải thiện các nỗ lực AI có trách nhiệm của mình. Tài liệu này sẽ được cập nhật định kỳ để truyền đạt các quy trình và phương pháp đang phát triển của chúng tôi.   

Các thuật ngữ chính  

Copilot trong Bing là một trải nghiệm tìm kiếm trên web nâng cao ai. Khi chạy trên một công nghệ mạnh mẽ, mới, chúng tôi bắt đầu bằng cách xác định một số thuật ngữ chính.  

Mô hình học máy giúp sắp xếp dữ liệu thành các lớp học có nhãn hoặc thể loại thông tin. Trong Copilot trong Bing, một cách mà chúng tôi sử dụng bộ phân loại là giúp phát hiện nội dung có khả năng gây hại do người dùng gửi hoặc được tạo ra bởi hệ thống để giảm thiểu việc tạo nội dung đó cũng như sử dụng sai hoặc lạm dụng hệ thống. 

Copilot trong Bing được căn cứ vào kết quả tìm kiếm trên web khi người dùng đang tìm kiếm thông tin. Điều này có nghĩa là chúng tôi đặt trọng tâm phản hồi được cung cấp cho truy vấn hoặc lời nhắc của người dùng về nội dung xếp hạng cao từ web và chúng tôi cung cấp liên kết đến các trang web để người dùng có thể tìm hiểu thêm. Bing xếp hạng nội dung tìm kiếm trên web bằng các tính năng trọng yếu như mức độ liên quan, chất lượng và độ tin cậy cũng như độ tươi. Chúng tôi mô tả chi tiết hơn các khái niệm này trong cách Bing Cung cấp Tìm kiếm quả (xem "Chất lượng và Uy tín" trong "Cách Bing Xếp hạng Tìm kiếm quả").   

Chúng tôi xem các phản hồi có căn cứ là phản hồi từ Copilot trong Bing, trong đó các câu lệnh được hỗ trợ bởi thông tin có trong các nguồn đầu vào, chẳng hạn như kết quả tìm kiếm trên web từ truy vấn hoặc lời nhắc, cơ sở tri thức thông tin được kiểm tra dữ kiện của Bing và đối với trải nghiệm trò chuyện, lịch sử trò chuyện gần đây từ cuộc trò chuyện. Phản ứng ungrounded là những người trong đó một tuyên bố không phải là căn cứ trong các nguồn đầu vào.  

Các mô hình ngôn ngữ lớn (LLM) trong ngữ cảnh này là mô hình AI được đào tạo về lượng lớn dữ liệu văn bản để dự đoán từ theo trình tự. LLM có khả năng thực hiện nhiều tác vụ khác nhau, chẳng hạn như tạo văn bản, tóm tắt, dịch, phân loại và nhiều tác vụ khác.  

Metaprompt là một chương trình phục vụ để hướng dẫn hành vi của hệ thống. Các phần của metaprompt giúp điều chỉnh hành vi của hệ thống phù hợp với Các nguyên tắc AI của Microsoft và kỳ vọng của người dùng. Ví dụ: metaprompt có thể bao gồm một dòng chẳng hạn như "liên lạc bằng ngôn ngữ lựa chọn của người dùng".  

Phương pháp hoặc tổ hợp phương pháp được thiết kế để giảm thiểu rủi ro tiềm ẩn có thể phát sinh từ việc sử dụng các tính năng điều khiển bằng AI trong Copilot trong Bing.  

Văn bản, giọng nói, hình ảnh và/hoặc các truy vấn có bật khác mà người dùng gửi tới Bing dưới dạng dữ liệu đầu vào cho mô hình hỗ trợ trải nghiệm tạo ra dựa trên AI mới trong Bing. Ví dụ: người dùng có thể nhập lời nhắc sau:  

"Tôi đang lên kế hoạch cho chuyến đi kỷ niệm của chúng tôi vào tháng Chín. Một số nơi chúng ta có thể đến trong vòng 3 giờ bay từ London Heathrow?”  

Tin nhắn văn bản mà người dùng gửi cho Bing từ thanh tìm kiếm để tìm kiếm trên web. Trong tài liệu này, chúng tôi phân biệt một truy vấn (để tìm kiếm trên web) với lời nhắc (đối với trải nghiệm tạo ra dựa trên AI trong Bing). Ví dụ: người dùng có thể nhập truy vấn sau để tìm kiếm trên web:  

"điểm đến du lịch gần sân bay Heathrow London"  

Kỹ thuật được các chuyên gia sử dụng để đánh giá các hạn chế và lỗ hổng của một hệ thống và để kiểm tra hiệu quả của các biện pháp giảm nhẹ theo kế hoạch. Kiểm tra và kiểm tra sức chịu tải của nhóm đỏ được dùng để xác định các rủi ro tiềm ẩn và khác biệt với đo lường rủi ro có hệ thống.   

Văn bản, hình ảnh, biểu đồ, v.v. mà Copilot trong bing xuất ra để phản hồi lời nhắc. Từ đồng nghĩa cho "phản hồi" bao gồm "hoàn thành", "thế hệ" và "trả lời". Ví dụ: Bing có thể cung cấp phản hồi sau cho lời nhắc mà chúng tôi sử dụng trong định nghĩa 'lời nhắc' ở trên:   

"Chúc mừng ngày kỷ niệm của bạn! Có nhiều nơi du khách có thể đến trong vòng 3 giờ bay từ London Heathrow. Theo một nguồn tin, một số thoát cuối tuần trong vòng ba giờ bằng máy bay từ London là Bilbao, Copenhagen, Reykjavik, và Stockholm 1, 2. Một nguồn gợi ý một số những nơi tốt nhất để đi ở châu Âu trong tháng Chín là Krakow, Florence, và Lisbon 3, 4. Bạn cũng có thể kiểm tra các chuyến bay trực tiếp từ London Heathrow đến nhiều điểm đến khác nhau và xem những gì hấp dẫn với bạn 5. Tôi hy vọng bạn có một chuyến đi tuyệt vời!”  

Các mục đích sử dụng và trải nghiệm AI mới  

Copilot trong mục đích sử dụng của Bing là kết nối người dùng với kết quả tìm kiếm liên quan, xem lại kết quả từ trên web để tìm và tóm tắt câu trả lời mà người dùng đang tìm kiếm, giúp người dùng tinh chỉnh nghiên cứu của họ để nhận được câu trả lời với trải nghiệm trò chuyện và tăng sự sáng tạo bằng cách giúp người dùng tạo nội dung. Copilot trong trải nghiệm AI tạo ra của Bing bên dưới hỗ trợ mục tiêu trở thành một người phụ trợ ai cho web.  

Tóm tắt. Khi người dùng gửi truy vấn tìm kiếm trên Copilot trong Bing, hệ thống Bing sẽ xử lý truy vấn, thực hiện một hoặc nhiều tìm kiếm trên web và sử dụng các kết quả tìm kiếm trên web hàng đầu để tạo bản tóm tắt thông tin cần trình bày cho người dùng. Các bản tóm tắt này bao gồm các tham chiếu để giúp người dùng xem và dễ dàng truy nhập kết quả tìm kiếm được sử dụng để giúp căn cứ vào bản tóm tắt. Bản tóm tắt có thể xuất hiện ở bên phải trang kết quả tìm kiếm và trong trải nghiệm trò chuyện.  

Trải nghiệm trò chuyện. Ngoài việc tóm tắt, người dùng có thể trò chuyện với Copilot trong hệ thống Bing qua văn bản, hình ảnh hoặc đầu vào giọng nói, đặt câu hỏi theo dõi để làm rõ các tìm kiếm và tìm thông tin mới cũng như gửi lời nhắc tạo nội dung sáng tạo. Các tham chiếu cũng được bao gồm trong trải nghiệm trò chuyện khi Copilot trong Bing đang tóm tắt kết quả tìm kiếm trong phản hồi.   

Thế hệ nội dung sáng tạo. Trong cả trải nghiệm trò chuyện và trên trang tìm kiếm, người dùng có thể tạo bài thơ, truyện cười, câu chuyện, hình ảnh và nội dung khác với sự trợ giúp từ Copilot trong Bing.  Hình ảnh được tạo bởi Designer (Bing Image Creator cũ) và người dùng có thể truy cập tính năng này thông qua trang Designer cũng như trang Copilot. 

Copilot trong Bing hoạt động như thế nào?  

Với Copilot trong Bing, chúng tôi đã phát triển một cách tiếp cận sáng tạo để mang các LLM tiên tiến đến tìm kiếm trên web. Khi người dùng nhập lời nhắc trong Copilot trong Bing, lời nhắc, lịch sử hội thoại gần đây, metaprompt và kết quả tìm kiếm hàng đầu sẽ được gửi dưới dạng đầu vào cho LLM. Mô hình tạo ra một phản hồi bằng cách sử dụng lịch sử hội thoại và lời nhắc của người dùng gần đây để theo ngữ cảnh hóa yêu cầu, siêu ứng dụng để phù hợp với các phản hồi theo Nguyên tắc AI của Microsoft và kỳ vọng của người dùng cũng như kết quả tìm kiếm với phản hồi mặt đất trong nội dung hiện có, cao cấp từ web.   

Các câu trả lời được trình bày cho người dùng ở một số định dạng khác nhau, chẳng hạn như liên kết truyền thống đến nội dung web, tóm tắt do AI tạo, hình ảnh và phản hồi trò chuyện. Tóm tắt và phản hồi trò chuyện dựa trên kết quả tìm kiếm trên web sẽ bao gồm các tham chiếu và phần "Tìm hiểu thêm" bên dưới các phản hồi, kèm theo liên kết đến kết quả tìm kiếm đã được sử dụng để phản hồi. Người dùng có thể bấm vào các liên kết này để tìm hiểu thêm về một chủ đề và thông tin được sử dụng để nối kết tóm tắt hoặc phản hồi trò chuyện.    

Trong trải nghiệm Copilot, người dùng có thể thực hiện tìm kiếm trên web một cách dễ dàng bằng cách thêm ngữ cảnh vào lời nhắc của họ và tương tác với phản hồi hệ thống để chỉ định thêm sở thích tìm kiếm của họ. Ví dụ, người dùng có thể đặt câu hỏi theo dõi, yêu cầu làm rõ thông tin bổ sung hoặc trả lời hệ thống theo cách trò chuyện. Trong trải nghiệm trò chuyện, người dùng cũng có thể chọn câu trả lời từ các đề xuất viết trước mà chúng tôi gọi là đề xuất trò chuyện. Các nút này xuất hiện sau mỗi phản hồi từ Copilot và cung cấp lời nhắc đề xuất để tiếp tục cuộc hội thoại trong trải nghiệm trò chuyện. Đề xuất trò chuyện cũng xuất hiện cùng với nội dung tóm tắt trên trang kết quả tìm kiếm làm điểm nhập cho trải nghiệm trò chuyện.  

Copilot trong Bing cũng cho phép người dùng tạo câu chuyện, bài thơ, lời bài hát và hình ảnh với sự trợ giúp từ Bing. Khi Copilot trong Bing phát hiện mục đích của người dùng để tạo nội dung sáng tạo (ví dụ: lời nhắc bắt đầu bằng "viết cho tôi một ..."), trong hầu hết các trường hợp, hệ thống sẽ tạo nội dung phản hồi với lời nhắc của người dùng. Tương tự, khi Copilot trong Bing phát hiện mục đích của người dùng để tạo ra một hình ảnh (ví dụ: lời nhắc bắt đầu bằng "vẽ cho tôi một ..."), trong hầu hết các trường hợp, hệ thống sẽ tạo ra một hình ảnh phản hồi với lời nhắc của người dùng. Trong Visual Tìm kiếm trong trải nghiệm Trò chuyện, với hình ảnh do camera của người dùng chụp, được tải lên từ thiết bị của người dùng hoặc được liên kết từ web, người dùng có thể nhắc Người phụ trách trong Bing hiểu ngữ cảnh, diễn giải và trả lời các câu hỏi về hình ảnh.  Người dùng cũng có thể tải tệp lên Copilot để diễn giải, chuyển đổi, xử lý hoặc tính toán thông tin từ họ. Trong trải nghiệm Microsoft Designer mà người dùng có thể truy nhập thông qua Copilot trong Bing, người dùng không chỉ có thể tạo hình ảnh bằng cách sử dụng lời nhắc, mà còn có thể đổi kích cỡ hoặc chỉnh sửa ảnh hoặc thực hiện các chỉnh sửa như làm mờ nền hoặc làm cho màu sắc sống động hơn. 

Người dùng có tài khoản Microsoft (MSA) hiện cũng có tùy chọn đăng ký Copilot Pro cung cấp trải nghiệm nâng cao, bao gồm hiệu suất tăng tốc, tạo hình ảnh AI nhanh hơn và sớm có khả năng tạo GPT Copilot của riêng bạn. Copilot Pro hiện có sẵn ở các quốc gia hạn chế và chúng tôi dự định sớm cung cấp các Copilot Pro này ở nhiều thị trường khác.

Trong trải nghiệm Copilot, người dùng có thể truy cập GPT Copilot. GPT Copilot, như Designer GPT, là phiên bản tùy chỉnh của Microsoft Copilot về chủ đề mà bạn quan tâm đặc biệt, chẳng hạn như thể dục, du lịch và nấu ăn, có thể giúp biến ý tưởng mơ hồ hoặc chung thành lời nhắc cụ thể hơn với đầu ra bao gồm văn bản và hình ảnh. Trong Copilot người dùng có thể thấy GPT Copilot có sẵn, và người dùng có tài khoản Copilot Pro sẽ sớm có quyền truy cập vào Copilot GPT Builder, một tính năng cho phép người dùng để tạo và cấu hình một GPT Copilot tùy chỉnh. Các biện pháp giảm nhẹ AI chịu trách nhiệm được đề cập ở trên cho Copilot trong Bing áp dụng cho GPT của Copilot.

Để tìm hiểu thêm về cách các GPT Copilot Pro và GPT Copilot hoạt động, vui lòng truy cập vào đây.

Copilot trong Bing cố gắng cung cấp các kết quả tìm kiếm đa dạng và toàn diện với cam kết của mình là truy cập miễn phí và mở thông tin. Đồng thời, những nỗ lực về chất lượng sản phẩm của chúng tôi bao gồm làm việc để tránh vô tình quảng bá nội dung có thể gây hại cho người dùng. Thông tin thêm về cách Bing xếp hạng nội dung, bao gồm cách bing xác định mức độ liên quan, chất lượng và độ tin cậy của trang web, có sẵn trong "Nguyên tắc quản trị trang web trên Bing".   Thông tin thêm về các nguyên tắc kiểm duyệt nội dung của Bing có sẵn trong "Cách Bing cung cấp kết quả tìm kiếm".   

Trong trải nghiệm Copilot trong Windows, Copilot trong Bing có thể làm việc với hệ điều hành Windows để cung cấp các kỹ năng dành riêng cho Windows, chẳng hạn như thay đổi chủ đề hoặc nền của người dùng cũng như thay đổi cài đặt như âm thanh, Bluetooth và kết nối mạng. Những trải nghiệm này cho phép người dùng đặt cấu hình cài đặt của họ và cải thiện trải nghiệm người dùng của họ bằng cách sử dụng lời nhắc ngôn ngữ tự nhiên cho LLM. Chức năng ứng dụng cụ thể cũng có thể được cung cấp từ các bổ trợ ứng dụng của bên thứ ba. Những điều này có thể tự động hóa các nhiệm vụ lặp đi lặp lại và đạt được hiệu quả người dùng cao hơn. Vì LLM đôi khi có thể mắc lỗi, nên lời nhắc xác nhận người dùng thích hợp sẽ được cung cấp để người dùng là trọng tài cuối cùng của các thay đổi có thể được thực hiện. 

Xác định, đo lường và giảm thiểu rủi ro  

Giống như các công nghệ chuyển đổi khác, việc khai thác lợi ích của AI không phải là không có rủi ro và một phần cốt lõi của chương trình AI chịu trách nhiệm của Microsoft được thiết kế để xác định các rủi ro tiềm ẩn, đo lường xu hướng của chúng để xảy ra và xây dựng các biện pháp giảm thiểu để giải quyết chúng. Được hướng dẫn bởi các Nguyên tắc AI và Tiêu chuẩn AI Chịu trách nhiệm, chúng tôi tìm cách xác định, đo lường và giảm thiểu rủi ro tiềm ẩn và lạm dụng Copilot trong Bing trong khi bảo mật các ứng dụng mang lại hiệu quả và mang lại hiệu quả mà trải nghiệm mới mang lại. Trong các mục dưới đây, chúng tôi mô tả phương pháp tiếp cận lặp của mình để xác định, đo lường và giảm thiểu các rủi ro tiềm ẩn.   

Ở cấp mô hình, công việc của chúng tôi bắt đầu với các phân tích thăm dò GPT-4 vào cuối mùa hè năm 2022. Điều này bao gồm việc tiến hành thử nghiệm nhóm màu đỏ rộng rãi khi cộng tác với OpenAI. Thử nghiệm này được thiết kế để đánh giá cách thức hoạt động của công nghệ mới nhất mà không cần áp dụng thêm bất kỳ biện pháp bảo vệ nào khác. Ý định cụ thể của chúng tôi tại thời điểm này là để sản xuất các phản ứng có hại, con đường tiềm năng bề mặt để sử dụng sai, và xác định khả năng và giới hạn. Kết hợp các kiến thức chuyên sâu của chúng tôi trên OpenAI và Microsoft đã đóng góp vào những tiến bộ trong việc phát triển mô hình và đối với chúng tôi tại Microsoft, chúng tôi đã hiểu rõ về các rủi ro và đóng góp vào các chiến lược giảm nhẹ sớm cho Copilot trong Bing.  

Ngoài thử nghiệm nhóm màu đỏ cấp mô hình, một nhóm chuyên gia đa ngành đã tiến hành nhiều vòng thử nghiệm nhóm màu đỏ cấp ứng dụng trên Copilot trong trải nghiệm Bing AI trước khi làm cho chúng công khai trong bản xem trước bản phát hành giới hạn của chúng tôi. Quá trình này đã giúp chúng tôi hiểu rõ hơn về cách hệ thống có thể bị khai thác bởi các đối thủ và cải thiện các biện pháp giảm nhẹ của chúng tôi. Những người kiểm tra sức chịu áp lực không đối lập cũng đánh giá rộng rãi các tính năng mới của Bing cho các thiếu sót và lỗ hổng. Sau khi phát hành, trải nghiệm AI mới trong Bing được tích hợp vào cơ sở hạ tầng thử nghiệm và đo lường sản xuất hiện có của tổ chức kỹ thuật Bing. Ví dụ: những người thử nghiệm nhóm màu đỏ từ các khu vực và nền khác nhau liên tục và có hệ thống cố gắng thỏa hiệp hệ thống, đồng thời phát hiện của họ được sử dụng để mở rộng bộ dữ liệu mà Bing sử dụng để cải thiện hệ thống.  

Thử nghiệm và kiểm tra sức chịu tải của nhóm màu đỏ có thể xuất hiện các trường hợp rủi ro cụ thể, nhưng trong người dùng sản xuất sẽ có hàng triệu cuộc hội thoại khác nhau với Copilot trong Bing. Hơn nữa, các cuộc hội thoại theo nhiều góc độ và ngữ cảnh, việc xác định nội dung có hại trong một cuộc hội thoại là một tác vụ phức tạp. Để hiểu rõ hơn và giải quyết tiềm ẩn rủi ro trong Copilot trong trải nghiệm Bing AI, chúng tôi đã phát triển thêm các số liệu AI chịu trách nhiệm dành riêng cho các trải nghiệm AI mới đó để đo lường các rủi ro tiềm ẩn như jailbreaks, nội dung có hại và nội dung không có nền. Chúng tôi cũng cho phép đo theo quy mô thông qua đường ống đo tự động một phần. Mỗi khi sản phẩm thay đổi, các biện pháp giảm nhẹ hiện có được cập nhật hoặc đề xuất các biện pháp giảm thiểu mới, chúng tôi cập nhật quy trình đo lường của mình để đánh giá cả hiệu suất sản phẩm và các chỉ số AI chịu trách nhiệm.  

Như một ví dụ minh họa, hệ thống đo lường được cập nhật một phần tự động cho nội dung có hại bao gồm hai cải tiến chính: mô phỏng hội thoại và chú thích hội thoại tự động, được con người xác minh. Trước tiên, các chuyên gia AI chịu trách nhiệm xây dựng các mẫu để nắm bắt cấu trúc và nội dung của các cuộc hội thoại có thể dẫn đến các loại nội dung có hại khác nhau. Các mẫu này sau đó được trao cho một đại diện trò chuyện, tương tác với tư cách người dùng giả thuyết với Copilot trong Bing, tạo ra các cuộc hội thoại mô phỏng. Để xác định liệu các hội thoại mô phỏng này có chứa nội dung có hại hay không, chúng tôi đã lấy hướng dẫn mà các nhà ngôn ngữ học chuyên nghiệp thường sử dụng để đánh nhãn dữ liệu và sửa đổi chúng để sử dụng bởi GPT-4 để đánh nhãn cho các cuộc hội thoại trên quy mô lớn, tinh chỉnh các hướng dẫn cho đến khi có thỏa thuận quan trọng giữa các cuộc hội thoại được gắn nhãn mô hình và hội thoại có nhãn người. Cuối cùng, chúng tôi đã sử dụng các cuộc hội thoại có nhãn mô hình để tính toán chỉ số AI có trách nhiệm giúp ghi lại hiệu quả của Copilot trong Bing trong việc giảm nhẹ nội dung có hại.   

Đường ống dẫn đo lường của chúng tôi cho phép chúng tôi nhanh chóng thực hiện đo lường rủi ro tiềm năng ở quy mô. Khi chúng tôi xác định các sự cố mới thông qua giai đoạn xem trước và thử nghiệm nhóm màu đỏ liên tục, chúng tôi tiếp tục mở rộng các bộ đo lường để đánh giá các rủi ro bổ sung.  

Khi chúng tôi xác định các rủi ro tiềm ẩn và lạm dụng thông qua các quy trình như kiểm tra nhóm màu đỏ và kiểm tra sức chịu tải và đo lường chúng bằng các phương pháp tiếp cận sáng tạo được mô tả ở trên, chúng tôi đã phát triển các biện pháp giảm nhẹ bổ sung cho những biện pháp được sử dụng cho tìm kiếm truyền thống. Dưới đây, chúng tôi mô tả một số trong những biện pháp giảm nhẹ đó. Chúng tôi sẽ tiếp tục giám sát Copilot trong các Bing AI của mình để cải thiện hiệu suất và giảm thiểu sản phẩm.  

Phát hành theo giai đoạn, đánh giá liên tục. Chúng tôi cam kết học hỏi và cải tiến liên tục phương pháp tiếp cận AI có trách nhiệm khi công nghệ và hành vi người dùng của chúng tôi phát triển. Chiến lược phát hành gia tăng của chúng tôi đã là một phần cốt lõi trong cách chúng tôi di chuyển công nghệ của mình một cách an toàn từ các phòng thí nghiệm ra thế giới và chúng tôi cam kết thực hiện một quy trình suy nghĩ cẩn trọng để đảm bảo các lợi ích của Copilot trong Bing. Việc giới hạn số người có quyền truy cập trong giai đoạn xem trước đã cho phép chúng tôi khám phá cách mọi người sử dụng Copilot trong Bing, bao gồm cả cách mọi người có thể sử dụng sai mục đích để chúng tôi có thể tìm cách giảm thiểu các sự cố mới xuất hiện trước khi phát hành rộng hơn. Ví dụ: chúng tôi yêu cầu người dùng xác thực bằng tài khoản Microsoft của họ trước khi truy cập trải nghiệm Bing mới đầy đủ. Người dùng chưa xác thực chỉ có thể truy nhập bản xem trước có giới hạn của trải nghiệm. Các bước này ngăn cản lạm dụng và giúp chúng tôi (nếu cần) thực hiện hành động phù hợp để đáp ứng các vi phạm Quy tắc Ứng xử.  Chúng tôi đang thực hiện các thay đổi đối với Copilot trong Bing hàng ngày để cải thiện hiệu suất sản phẩm, cải thiện các biện pháp giảm nhẹ hiện có và triển khai các biện pháp giảm thiểu mới nhằm đáp ứng các bài học của chúng tôi trong giai đoạn xem trước.  

Căn cứ trong kết quả tìm kiếm. Như đã nói ở trên, Copilot trong Bing được thiết kế để cung cấp các phản hồi được hỗ trợ bởi thông tin trong kết quả tìm kiếm trên web khi người dùng đang tìm kiếm thông tin. Ví dụ: hệ thống được cung cấp văn bản từ kết quả tìm kiếm hàng đầu và hướng dẫn thông qua metaprompt để phản hồi. Tuy nhiên, trong việc tóm tắt nội dung từ web, Copilot trong Bing có thể bao gồm thông tin phản hồi không có trong các nguồn đầu vào. Nói cách khác, nó có thể tạo ra kết quả không có mặt. Đánh giá ban đầu của chúng tôi đã chỉ ra rằng kết quả không có mặt trong cuộc trò chuyện có thể phổ biến hơn đối với một số loại lời nhắc hoặc chủ đề nhất định, chẳng hạn như yêu cầu tính toán toán học, thông tin tài chính hoặc thị trường (ví dụ: thu nhập công ty, dữ liệu hiệu suất chứng khoán) và thông tin như ngày chính xác của sự kiện hoặc giá cụ thể của các mặt hàng. Người dùng nên luôn thận trọng và sử dụng phán xét tốt nhất của họ khi xem kết quả tìm kiếm tóm tắt, cho dù trên trang kết quả tìm kiếm hoặc trong trải nghiệm trò chuyện. Chúng tôi đã thực hiện một số biện pháp để giảm thiểu rủi ro mà người dùng có thể dựa trên nội dung được tạo không có nền trong các kịch bản tóm tắt và trải nghiệm trò chuyện. Ví dụ: các phản hồi trong Copilot trong Bing dựa trên kết quả tìm kiếm bao gồm tham chiếu đến các trang web nguồn cho người dùng để xác minh phản hồi và tìm hiểu thêm. Người dùng cũng được thông báo rõ ràng rằng họ đang tương tác với hệ thống AI và nên kiểm tra tài liệu nguồn kết quả web để giúp họ sử dụng đánh giá tốt nhất.  

Phân loại dựa trên AI và metaprompting để giảm thiểu rủi ro tiềm ẩn hoặc lạm dụng. Việc sử dụng LLM có thể tạo ra nội dung có vấn đề có thể dẫn đến rủi ro hoặc lạm dụng. Ví dụ có thể bao gồm đầu ra liên quan đến tự gây hại, bạo lực, nội dung đồ họa, sở hữu trí tuệ, thông tin không chính xác, lời ghét hoặc văn bản có thể liên quan đến các hoạt động bất hợp pháp. Phân loại và siêu cấp là hai ví dụ về các biện pháp giảm nhẹ đã được thực hiện trong Copilot trong Bing để giúp giảm rủi ro của các loại nội dung này. Bộ phân loại phân loại văn bản để gắn cờ các loại nội dung có khả năng gây hại khác nhau trong truy vấn tìm kiếm, lời nhắc trò chuyện hoặc phản hồi được tạo. Bing sử dụng các phân loại dựa trên AI và bộ lọc nội dung, bộ lọc này áp dụng cho tất cả các kết quả tìm kiếm và các tính năng liên quan; chúng tôi đã thiết kế thêm các bộ phân loại lời nhắc và bộ lọc nội dung nhằm giải quyết các rủi ro có thể có do Copilot trong các tính năng của Bing gây ra. Cờ dẫn đến các biện pháp giảm nhẹ tiềm năng, chẳng hạn như không trả lại nội dung được tạo cho người dùng, chuyển người dùng đến một chủ đề khác hoặc chuyển hướng người dùng đến tìm kiếm truyền thống. Metaprompting liên quan đến việc cung cấp hướng dẫn cho mô hình để hướng dẫn hành vi của mô hình, bao gồm cả để hệ thống hoạt động phù hợp với Nguyên tắc AI của Microsoft và kỳ vọng của người dùng. Ví dụ: metaprompt có thể bao gồm một dòng chẳng hạn như "liên lạc bằng ngôn ngữ lựa chọn của người dùng".   

Bảo vệ quyền riêng tư trong Visual Tìm kiếm trong Copilot trong Bing. Khi người dùng tải lên hình ảnh như một phần trong lời nhắc trò chuyện của họ, Copilot trong Bing sẽ sử dụng công nghệ làm mờ khuôn mặt trước khi gửi hình ảnh cho mô hình AI. Làm mờ khuôn mặt được sử dụng để bảo vệ sự riêng tư của các cá nhân trong hình ảnh. Công nghệ làm mờ khuôn mặt dựa trên các gợi ý ngữ cảnh để xác định vị trí mờ và sẽ cố gắng làm mờ tất cả các khuôn mặt. Khi khuôn mặt bị mờ, mô hình AI có thể so sánh hình ảnh được nhập với hình ảnh có sẵn công khai trên Internet. Kết quả là, ví dụ, Copilot trong Bing có thể xác định một cầu thủ bóng rổ nổi tiếng từ ảnh của người chơi đó trên một sân bóng rổ bằng cách tạo ra một đại diện số phản ánh số áo của người chơi, màu áo, sự hiện diện của một hoop bóng rổ, v.v. Người lái trong Bing không lưu trữ dạng biểu thị số của mọi người khỏi hình ảnh đã tải lên và không chia sẻ chúng với bên thứ ba. Người phụ trách bản sao trong Bing sử dụng dạng số biểu thị hình ảnh mà người dùng chỉ tải lên với mục đích phản hồi lời nhắc của người dùng, sau đó họ sẽ bị xóa trong vòng 30 ngày sau khi cuộc trò chuyện kết thúc.    

Nếu người dùng yêu cầu Người phụ trách sao chép trong Bing cung cấp thông tin về một hình ảnh đã tải lên, các câu trả lời trò chuyện có thể phản ánh tác động của hiện tượng làm mờ khuôn mặt đối với khả năng cung cấp thông tin về hình ảnh đã tải lên của người mẫu đó. Ví dụ: Bộ sao chép trong Bing có thể mô tả một người nào đó có khuôn mặt mờ.    

Hạn chế giao tiếp giao tiếp. Trong khoảng thời gian xem trước, chúng tôi biết rằng các phiên trò chuyện rất dài có thể dẫn đến các phản hồi lặp đi lặp lại, không hữu ích hoặc không phù hợp với Copilot theo chủ đích của Bing. Để giải quyết sự cố lệch nhau về cuộc trò chuyện này, chúng tôi đã giới hạn số lượt (các sàn giao dịch có chứa cả câu hỏi người dùng và trả lời từ Copilot trong Bing) cho mỗi phiên trò chuyện. Chúng tôi tiếp tục đánh giá các phương pháp tiếp cận bổ sung để giảm thiểu sự cố này.  

Nhanh chóng làm phong phú. Trong một số trường hợp, lời nhắc của người dùng có thể không rõ. Khi điều này xảy ra, Người lái trong Bing có thể sử dụng LLM để giúp xây dựng thêm chi tiết trong lời nhắc nhằm giúp đảm bảo người dùng nhận được phản hồi mà họ đang tìm kiếm. Làm phong phú lời nhắc như vậy không dựa vào bất kỳ kiến thức nào về người dùng hoặc các tìm kiếm trước đây của họ, mà thay vào đó là mô hình AI. Các truy vấn đã sửa đổi này sẽ hiển thị trong lịch sử trò chuyện của người dùng và cũng giống như các tìm kiếm khác, có thể bị xóa bằng cách sử dụng các tùy chọn kiểm soát trong sản phẩm.  

Người dùng làm trung tâm thiết kế và kinh nghiệm người dùng can thiệp. Trải nghiệm người dùng làm trung tâm thiết kế và sử dụng là một khía cạnh thiết yếu của phương pháp tiếp cận ai có trách nhiệm của Microsoft. Mục tiêu là để root sản phẩm thiết kế trong nhu cầu và kỳ vọng của người dùng. Khi người dùng tương tác với Copilot trong Bing lần đầu tiên, chúng tôi cung cấp nhiều điểm tiếp xúc khác nhau được thiết kế để giúp họ hiểu khả năng của hệ thống, tiết lộ với họ rằng Copilot trong Bing được ai hỗ trợ và các giới hạn giao tiếp. Trải nghiệm được thiết kế theo cách này để giúp người dùng tận dụng tối đa Copilot trong Bing và giảm thiểu rủi ro liên quan quá mức. Các thành phần của trải nghiệm này cũng giúp người dùng hiểu rõ hơn về Copilot trong Bing và các tương tác của họ với Bing. Các đề xuất này bao gồm các đề xuất chat dành riêng cho AI chịu trách nhiệm (ví dụ: Bing sử dụng AI như thế nào? Tại sao Copilot trong Bing không phản hồi về một số chủ đề?), giải thích về các hạn chế, cách thức người dùng có thể tìm hiểu thêm về cách hệ thống hoạt động và báo cáo phản hồi cũng như các tham chiếu có thể dẫn hướng dễ dàng xuất hiện trong các phản hồi để hiển thị cho người dùng kết quả và trang có phản hồi căn cứ.  

Tiết lộ AI. Copilot trong Bing cung cấp một số điểm tiếp xúc cho tiết lộ AI có ý nghĩa, trong đó người dùng được thông báo rằng họ đang tương tác với hệ thống AI cũng như cơ hội để tìm hiểu thêm về Copilot trong Bing. Việc trao quyền cho người dùng với kiến thức này có thể giúp họ tránh việc phụ thuộc quá nhiều vào AI và tìm hiểu về các điểm mạnh và giới hạn của hệ thống.  

Phương tiện chứng minh.Microsoft Designer đã bật tính năng "Thông tin xác thực Nội dung", tính năng này sử dụng các phương pháp mã hóa để đánh dấu nguồn hoặc "chứng minh" của tất cả các hình ảnh do AI tạo ra trên Designer. Tính năng hình nền mờ kỹ thuật số vô hình hiển thị nguồn, thời gian và ngày tạo ban đầu, đồng thời không thể thay đổi thông tin này. Công nghệ này sử dụng các tiêu chuẩn do Liên minh về Nội dung và Xác thực (C2PA) thiết lập để bổ sung thêm một lớp tin cậy và độ trong suốt cho hình ảnh do AI tạo ra. Microsoft là người đồng sáng lập C2PA và đã đóng góp với công nghệ chứng minh nội dung kỹ thuật số cốt lõi. 

Điều khoản Sử dụng và Quy tắc Ứng xử. Tài nguyên này chi phối việc sử dụng Copilot trong Bing. Người dùng nên tuân thủ Điều khoản Sử dụng và Quy tắc Ứng xử, trong số những điều khác, thông báo cho họ về việc sử dụng được cho phép và không cho phép và hậu quả của việc vi phạm các điều khoản. Điều khoản Sử dụng cũng cung cấp thông tin tiết lộ bổ sung cho người dùng và đóng vai trò là tài liệu tham khảo hữu ích để người dùng tìm hiểu về Copilot trong Bing.   

Hoạt động và phản ứng nhanh chóng. Chúng tôi cũng sử dụng Copilot trong các quy trình giám sát và vận hành liên tục của Bing để giải quyết khi Copilot trong Bing nhận được tín hiệu hoặc nhận báo cáo, cho biết có thể sử dụng sai mục đích hoặc vi phạm Điều khoản Sử dụng hoặc Quy tắc Ứng xử.  

Phản hồi, giám sát và giám sát. Copilot trong trải nghiệm Bing được xây dựng dựa trên công cụ hiện có cho phép người dùng gửi phản hồi và báo cáo mối quan tâm, được các nhóm hoạt động của Microsoft xem xét. Các quy trình hoạt động của Bing cũng đã được mở rộng để phù hợp với các tính năng trong Copilot trong trải nghiệm Bing, ví dụ: cập nhật trang Báo cáo mối quan tâm để bao gồm các loại nội dung mới mà người dùng tạo với sự trợ giúp của mô hình.   

Phương pháp tiếp cận của chúng tôi để xác định, đo lường và giảm thiểu rủi ro sẽ tiếp tục phát triển khi chúng tôi tìm hiểu thêm và chúng tôi đã cải tiến dựa trên phản hồi thu thập được trong giai đoạn xem trước.     

Tự động phát hiện nội dung. Khi người dùng tải lên hình ảnh như một phần trong lời nhắc trò chuyện của họ, Copilot trong Bing sẽ triển khai các công cụ để phát hiện hình ảnh bóc lột và lạm dụng tình dục trẻ em (CSEAI), đáng chú ý nhất là công nghệ khớp băm PhotoDNA. Microsoft đã phát triển PhotoDNA để giúp tìm các bản trùng lặp của CSEAI đã biết. Microsoft báo cáo tất cả CSEAI rõ ràng cho Trung tâm Quốc gia về trẻ em bị mất tích và bị lợi dụng (NCMEC), theo yêu cầu của luật pháp Hoa Kỳ. Khi người dùng tải tệp lên để phân tích hoặc xử lý, Copilot sẽ triển khai tính năng quét tự động để phát hiện nội dung có thể dẫn đến rủi ro hoặc sử dụng sai, chẳng hạn như văn bản có thể liên quan đến hoạt động bất hợp pháp hoặc mã độc hại.

Bảo vệ quyền riêng tư  

Sự tin tưởng lâu dài của Microsoft rằng quyền riêng tư là quyền cơ bản của con người đã thông báo cho mọi giai đoạn phát triển và triển khai Copilot của Microsoft trong trải nghiệm Bing. Cam kết của chúng tôi trong việc bảo vệ quyền riêng tư của tất cả người dùng, bao gồm bằng cách cung cấp cho các cá nhân sự minh bạch và kiểm soát dữ liệu của họ cũng như tích hợp quyền riêng tư bằng cách thiết kế thông qua tối thiểu hóa dữ liệu và giới hạn mục đích, là nền tảng cho Copilot trong Bing. Khi phát triển phương pháp tiếp cận để cung cấp Copilot trong trải nghiệm AI tạo ra của Bing, chúng tôi sẽ liên tục khám phá cách tốt nhất để bảo vệ quyền riêng tư. Tài liệu này sẽ được cập nhật khi chúng tôi thực hiện điều đó. Thông tin thêm về cách Microsoft bảo vệ quyền riêng tư của người dùng của chúng tôi có trong Điều khoản về Quyền riêng tư của Microsoft.  

Trong trải nghiệm Copilot trong Windows, các kỹ năng của Windows có thể, như một phần trong chức năng của họ, chia sẻ thông tin người dùng với cuộc hội thoại trò chuyện. Điều này tuân theo sự chấp thuận của người dùng và lời nhắc giao diện người dùng được hiển thị để xác nhận mục đích của người dùng trước khi thông tin người dùng được chia sẻ với hội thoại trò chuyện.

Microsoft tiếp tục xem xét nhu cầu của trẻ em và thanh thiếu niên như một phần trong đánh giá rủi ro của các tính năng AI mới tạo ra trong Copilot trong Bing. Tất cả các tài khoản trẻ em của Microsoft xác định người dùng dưới 13 tuổi hoặc theo quy định khác theo luật địa phương không thể đăng nhập để truy cập vào trải nghiệm Bing mới đầy đủ.   

Như được mô tả ở trên, đối với tất cả người dùng, chúng tôi đã triển khai các biện pháp bảo vệ giúp giảm thiểu nội dung có hại tiềm ẩn. Trong Copilot trong Bing, kết quả được đặt như trong Chế độ Nghiêm ngặt của Tìm kiếm An toàn trên Bing, chế độ này có mức bảo vệ an toàn cao nhất trong tìm kiếm chính trên Bing, do đó ngăn không cho người dùng, bao gồm cả người dùng vị thành niên, tiếp xúc với nội dung có thể gây hại. Ngoài thông tin chúng tôi đã cung cấp trong tài liệu này và trong câu hỏi thường gặp về các tính năng trò chuyện, thông tin thêm về cách Thức hoạt động của Copilot trong Bing để tránh phản hồi với nội dung phản cảm ngoài ý muốn trong kết quả tìm kiếm có tại đây.  

Microsoft cam kết không cung cấp quảng cáo được cá nhân hóa dựa trên hành vi trực tuyến cho trẻ em dưới 18 tuổi theo ngày sinh lưu trong tài khoản Microsoft của mình. Tính năng bảo vệ quan trọng này sẽ mở rộng đến các quảng cáo trong Copilot trong các tính năng của Bing. Người dùng có thể thấy quảng cáo theo ngữ cảnh dựa trên truy vấn hoặc lời nhắc được sử dụng để tương tác với Bing.  

Để mở khóa tiềm năng chuyển đổi của việc tạo AI, chúng ta phải xây dựng sự tin tưởng vào công nghệ thông qua việc trao quyền cho các cá nhân hiểu cách dữ liệu của họ được sử dụng và cung cấp cho họ các lựa chọn và kiểm soát có ý nghĩa đối với dữ liệu của họ. Copilot trong Bing được thiết kế để ưu tiên đại lý của con người, thông qua việc cung cấp thông tin về cách sản phẩm hoạt động cũng như các giới hạn của sản phẩm và thông qua việc mở rộng các lựa chọn và kiểm soát mạnh mẽ của người tiêu dùng đối với Copilot trong các tính năng của Bing.   

Điều khoản về Quyền riêng tư của Microsoft cung cấp thông tin về các biện pháp bảo vệ quyền riêng tư minh bạch của chúng tôi để bảo vệ khách hàng và thiết lập thông tin về các biện pháp kiểm soát giúp người dùng của chúng tôi có thể xem và quản lý dữ liệu cá nhân của họ. Để giúp đảm bảo rằng người dùng có thông tin họ cần khi tương tác với các tính năng trò chuyện mới của Bing, các tiết lộ trong sản phẩm sẽ thông báo cho người dùng rằng họ tương tác với một sản phẩm AI và chúng tôi cung cấp liên kết đến các Câu hỏi thường gặp và giải thích thêm về cách hoạt động của các tính năng này. Microsoft sẽ tiếp tục lắng nghe phản hồi của người dùng và sẽ bổ sung thêm chi tiết về các tính năng trò chuyện của Bing phù hợp để hỗ trợ hiểu biết về cách sản phẩm hoạt động.   

Microsoft cũng cung cấp cho người dùng các công cụ mạnh mẽ để thực hiện các quyền của họ đối với dữ liệu cá nhân của họ. Đối với dữ liệu do Copilot thu thập trong Bing, bao gồm cả thông qua các truy vấn và lời nhắc của người dùng, Bảng điều khiển Quyền riêng tư của Microsoft cung cấp những người dùng được xác thực (đã đăng nhập) với các công cụ để thực hiện quyền chủ thể dữ liệu của họ, bao gồm bằng cách cung cấp cho người dùng khả năng xem, xuất và xóa lịch sử hội thoại được lưu trữ. Microsoft tiếp tục thu thập phản hồi về cách họ muốn quản lý trải nghiệm Bing mới của mình, bao gồm cả cách sử dụng trải nghiệm quản lý dữ liệu trong ngữ cảnh.   

Copilot trong Bing cũng vinh dự các yêu cầu theo quyền châu Âu bị quên đi, theo quy trình Microsoft phát triển và tinh chỉnh chức năng tìm kiếm truyền thống của Bing. Tất cả người dùng có thể báo cáo mối quan ngại về nội dung và phản hồi được tạo tại đây và người dùng ở châu Âu của chúng tôi có thể sử dụng biểu mẫu này để gửi yêu cầu chặn kết quả tìm kiếm ở Châu Âu bên dưới quyền bị quên lãng.   

Copilot trong Bing sẽ vinh danh các lựa chọn về quyền riêng tư của người dùng, bao gồm cả những lựa chọn trước đây đã được thực hiện trong Bing, chẳng hạn như sự chấp thuận cho việc thu thập và sử dụng dữ liệu được yêu cầu thông qua biểu ngữ cookie và các tùy chọn kiểm soát có sẵn trong Bảng điều khiển Quyền riêng tư của Microsoft. Để giúp cho phép người dùng tự chủ và cơ quan trong việc đưa ra quyết định sáng suốt, chúng tôi đã sử dụng quy trình xem xét nội bộ của chúng tôi để kiểm tra cẩn thận cách các lựa chọn được trình bày cho người dùng. 

Ngoài các tùy chọn kiểm soát có sẵn thông qua Bảng điều khiển Quyền riêng tư của Microsoft, cho phép người dùng xem, xuất và xóa lịch sử tìm kiếm của họ, bao gồm các cấu phần của lịch sử Trò chuyện, những người dùng được xác thực đã bật tính năng Lịch sử trò chuyện trong sản phẩm có khả năng xem, truy cập và tải xuống lịch sử trò chuyện thông qua kiểm soát trong sản phẩm. Người dùng có thể xóa các cuộc trò chuyện cụ thể khỏi Lịch sử trò chuyện hoặc tắt hoàn toàn chức năng lịch sử trò chuyện bất cứ lúc nào bằng cách truy cập trang Cài đặt Bing. Người dùng cũng có thể chọn có cho phép cá nhân hóa truy cập vào trải nghiệm tùy chỉnh hơn với các câu trả lời được cá nhân hóa hay không. Người dùng có thể chọn tham gia và chọn không tham gia cá nhân hóa bất cứ lúc nào trong Cài đặt Trò chuyện trong trang Cài đặt Bing.  Việc xóa các cuộc trò chuyện cụ thể khỏi Lịch sử trò chuyện sẽ ngăn không cho chúng được sử dụng để cá nhân hóa.  
 
Thông tin thêm về Lịch sử trò chuyện và cá nhân hóa được cung cấp cho người dùng trong Copilot trong Câu hỏi thường gặp về Bing. 

Copilot trong Bing đã được xây dựng với ý định về quyền riêng tư, để dữ liệu cá nhân được thu thập và sử dụng chỉ khi cần thiết và được lưu giữ không lâu hơn mức cần thiết. Như đã đề cập ở trên, Visual Tìm kiếm trong tính năng Copilot trong Bing sẽ triển khai một cơ chế làm mờ khuôn mặt trong hình ảnh tại thời điểm người dùng tải lên, để hình ảnh khuôn mặt không được xử lý hoặc lưu trữ thêm. Thông tin khác về dữ liệu cá nhân mà Bing thu thập, cách dữ liệu được sử dụng và cách dữ liệu được lưu trữ và xóa có sẵn trong Điều khoản về Quyền riêng tư của Microsoft, cũng cung cấp thông tin về các tính năng trò chuyện mới của Bing.   

Người sao chép trong Bing có chính sách lưu giữ và xóa dữ liệu để giúp đảm bảo rằng dữ liệu cá nhân được thu thập thông qua các tính năng trò chuyện của Bing chỉ được lưu giữ miễn là cần thiết.   

Chúng tôi sẽ tiếp tục tìm hiểu và phát triển phương pháp tiếp cận của chúng tôi trong việc cung cấp Copilot trong Bing, và như chúng tôi làm như vậy, chúng tôi sẽ tiếp tục làm việc qua các lĩnh vực để điều chỉnh sự đổi mới AI của mình với giá trị con người và quyền cơ bản, bao gồm bảo vệ người dùng trẻ và quyền riêng tư.   

Copilot với bảo vệ dữ liệu thương mại 

Copilot với tính năng bảo vệ dữ liệu thương mại, trước đây gọi là Bing Chat Enterprise ("BCE"), được Microsoft phát hành trong bản xem trước công khai miễn phí vào tháng 7 năm 2023 dưới dạng phần bổ trợ miễn phí cho một số khách hàng M365. Copilot có tính năng bảo vệ dữ liệu thương mại là một trải nghiệm tìm kiếm web nâng cao ai cho người dùng cuối là doanh nghiệp. 

Giống như Copilot trong Bing, khi một Copilot có người dùng cuối bảo vệ dữ liệu thương mại nhập lời nhắc vào giao diện, lời nhắc, cuộc hội thoại ngay lập tức, kết quả tìm kiếm hàng đầu và metaprompt được gửi dưới dạng đầu vào cho LLM. Mô hình tạo ra một phản hồi bằng lịch sử hội thoại nhanh chóng và nhanh chóng để sắp xếp ngữ cảnh cho yêu cầu, siêu dữ liệu để căn chỉnh phản hồi phù hợp với Nguyên tắc AI của Microsoft và kỳ vọng của người dùng cũng như kết quả tìm kiếm phản hồi mặt đất trong nội dung hiện có, cao cấp từ web. Điều này hoạt động giống như Copilot trong Bing như được mô tả ở trên trong tài liệu này, ngoại trừ Copilot có bảo vệ dữ liệu thương mại chỉ dựa vào lịch sử hội thoại ngay lập tức (không phải lịch sử hội thoại gần đây) do lịch sử trò chuyện được lưu trữ không phải là tính năng hiện đang được hỗ trợ. Designer và Visual Tìm kiếm có sẵn trong phiên bản này. 

Giống như các công nghệ chuyển đổi khác, việc khai thác lợi ích của AI không phải là không có rủi ro và một phần cốt lõi của chương trình AI chịu trách nhiệm của Microsoft được thiết kế để xác định các rủi ro tiềm ẩn, đo lường xu hướng của chúng để xảy ra và xây dựng các biện pháp giảm thiểu để giải quyết chúng. Một lần nữa, phần mô tả ở trên về các nỗ lực của Microsoft trong việc xác định, đo lường và giảm thiểu rủi ro tiềm ẩn đối với Copilot trong Bing cũng áp dụng cho phiên bản này, kèm theo một số giải thích về các biện pháp giảm thiểu được mô tả dưới đây: 

Phát hành theo giai đoạn, đánh giá liên tục. Giống như với Copilot Bing, đối với Copilot với bảo vệ dữ liệu thương mại, chúng tôi cũng áp dụng một phương pháp phát hành gia tăng. Vào ngày 18 tháng 7 năm 2023, Copilot có tính năng bảo vệ dữ liệu thương mại được cung cấp dưới dạng bản xem trước miễn phí cho khách hàng doanh nghiệp đủ điều kiện có tài khoản M365 cụ thể để bật cho người dùng cuối là doanh nghiệp của họ. Ba mươi (30) ngày sau khi thông báo cho khách hàng doanh nghiệp đủ điều kiện, Copilot với bảo vệ dữ liệu thương mại đã trở thành "mặc định về" cho những khách hàng tương tự. Copilot với bảo vệ dữ liệu thương mại cũng có sẵn cho các tài khoản giảng viên giáo dục M365 cụ thể. Copilot có tính năng bảo vệ dữ liệu thương mại thường được cung cấp cho một số khách hàng doanh nghiệp nhất định vào ngày 1 tháng 12 năm 2023. Trong tương lai, chúng tôi dự định mở rộng quyền truy cập vào Copilot bằng tính năng bảo vệ dữ liệu thương mại cho Microsoft Entra ID người dùng khác.

Điều khoản Sử dụng và Quy tắc Ứng xử. Người dùng cuối của Copilot có bảo vệ dữ liệu thương mại phải tuân thủ Điều khoản Sử dụng của Người dùng Cuối. Các Điều khoản Sử dụng này thông báo cho người dùng cuối sử dụng được phép và không được phép và hậu quả của việc vi phạm các điều khoản.  

Hoạt động và phản ứng nhanh chóng. Chúng tôi cũng sử dụng Copilot trong các quy trình giám sát và vận hành liên tục của Bing để giải quyết khi Copilot có tính năng bảo vệ dữ liệu thương mại nhận được tín hiệu hoặc nhận báo cáo cho biết có thể sử dụng sai mục đích hoặc vi phạm Điều khoản Sử dụng của Người dùng Cuối. 

Phản hồi, giám sát và giám sát. Copilot có tính năng bảo vệ dữ liệu thương mại sử dụng cùng một công cụ như Copilot trong Bing cho người dùng để gửi phản hồi và báo cáo mối quan tâm, được các nhóm hoạt động của Microsoft xem xét. Copilot trong các quy trình hoạt động của Bing cũng đã được mở rộng để phù hợp với các tính năng trong Copilot với trải nghiệm bảo vệ dữ liệu thương mại, ví dụ: cập nhật trang Báo cáo mối quan tâm để bao gồm các loại nội dung mới mà người dùng tạo với sự trợ giúp của mô hình.  

Để giúp đảm bảo rằng người dùng cuối có thông tin họ cần khi tương tác với Copilot bằng tính năng bảo vệ dữ liệu thương mại, tài liệu sản phẩm có sẵn ở cuối tài liệu này, bao gồm các trang Câu hỏi thường gặp và Tìm hiểu thêm. 

Các lời nhắc và phản hồi được tạo bởi người dùng cuối trong Copilot với bảo vệ dữ liệu thương mại được xử lý và lưu trữ phù hợp với tiêu chuẩn xử lý dữ liệu doanh nghiệp. Gói Copilot có ưu đãi bảo vệ dữ liệu thương mại hiện chỉ khả dụng cho khách hàng doanh nghiệp và người dùng cuối đã được xác thực của họ, vì vậy chúng tôi không dự đoán trẻ em hoặc thanh thiếu niên trở thành người dùng cuối của Copilot với tính năng bảo vệ dữ liệu thương mại tại thời điểm này. Ngoài ra, Copilot có tính năng bảo vệ dữ liệu thương mại không cung cấp bất kỳ quảng cáo được nhắm mục tiêu theo hành vi nào cho người dùng cuối. Thay vào đó, bất kỳ quảng cáo nào được hiển thị chỉ là những quảng cáo phù hợp theo ngữ cảnh.  

Tìm hiểu thêm

Tài liệu này là một phần trong nỗ lực rộng lớn hơn của Microsoft nhằm đưa các nguyên tắc AI của chúng tôi vào thực tiễn. Để tìm hiểu thêm, hãy xem:

Phương pháp tiếp cận ai chịu trách nhiệm của Microsoft

Tiêu chuẩn AI Chịu trách nhiệm của Microsoft

Tài nguyên AI chịu trách nhiệm của Microsoft  

Các khóa học Microsoft Azure Learning về AI Chịu trách nhiệm  

Giới thiệu về tài liệu này  

© 2023 Microsoft. Bảo lưu mọi quyền. Tài liệu này được cung cấp "như hiện tại" và chỉ cho mục đích thông tin. Thông tin và dạng xem được thể hiện trong tài liệu này, bao gồm URL và các tham chiếu Website Internet khác, có thể thay đổi mà không cần thông báo. Bạn tự chịu rủi ro khi sử dụng phần mềm. Một số ví dụ chỉ để minh họa và là đồ họa. Không có sự liên kết thực sự là dự định hoặc suy ra.  

Bạn cần thêm trợ giúp?

Bạn muốn xem các tùy chọn khác?

Khám phá các lợi ích của gói đăng ký, xem qua các khóa đào tạo, tìm hiểu cách bảo mật thiết bị của bạn và hơn thế nữa.

Cộng đồng giúp bạn đặt và trả lời các câu hỏi, cung cấp phản hồi và lắng nghe ý kiến từ các chuyên gia có kiến thức phong phú.

Thông tin này có hữu ích không?

Bạn hài lòng đến đâu với chất lượng dịch thuật?
Điều gì ảnh hưởng đến trải nghiệm của bạn?
Khi nhấn gửi, phản hồi của bạn sẽ được sử dụng để cải thiện các sản phẩm và dịch vụ của Microsoft. Người quản trị CNTT của bạn sẽ có thể thu thập dữ liệu này. Điều khoản về quyền riêng tư.

Cảm ơn phản hồi của bạn!

×