Cập nhật lần cuối: Tháng 8 năm 2025

Ghi chú Minh bạch là gì?

Một hệ thống AI không chỉ bao gồm công nghệ, mà còn bao gồm những người sẽ sử dụng nó, những người sẽ bị ảnh hưởng bởi nó, và môi trường mà nó được triển khai. Transparency Notes của Microsoft nhằm giúp bạn hiểu cách công nghệ AI đằng sau Copilot hoạt động, các lựa chọn mà chúng tôi đã thực hiện ảnh hưởng đến hiệu suất và hành vi của hệ thống cũng như tầm quan trọng của việc suy nghĩ về toàn hệ thống, để người dùng Copilot có thể kiểm soát trải nghiệm của riêng họ và hiểu các bước chúng tôi đang thực hiện để cung cấp một sản phẩm an toàn và bảo mật.

Transparency Notes của Microsoft là một phần trong nỗ lực lớn hơn của Microsoft trong việc đưa các Nguyên tắc AI của chúng tôi vào thực tiễn. Để tìm hiểu thêm, hãy xem Nguyên tắc AI của Microsoft

Thông tin cơ bản về Microsoft Copilot

Giới thiệu

Copilot là một trải nghiệm có hỗ trợ AI sẽ giúp cung cấp cho người dùng thông tin họ đang tìm kiếm trong khi được chuẩn bị để hỗ trợ người dùng trả lời một loạt các câu hỏi bất kể tình huống hay chủ đề. Copilot được làm mới vượt xa việc trả lời các truy vấn truy xuất thông tin cơ bản và tập trung vào việc tạo nội dung để cung cấp hỗ trợ chủ động hơn cho người dùng khi hoàn thành nhiệm vụ. Chúng tôi có sự hiểu biết ngày càng tăng về việc AI có tiềm năng như thế nào để giúp mọi người tìm hiểu, khám phá và sáng tạo hơn, điều này buộc chúng tôi phải xây dựng một loại sản phẩm khác. Trải nghiệm Copilot mới tìm cách trở thành một loại trải nghiệm mới mở và linh động để đáp ứng tốt hơn nhu cầu của người dùng theo cách trực quan hơn.

Tại Microsoft, chúng tôi nghiêm túc cam kết chịu trách nhiệm về AI. Trải nghiệm Copilot cập nhật đã được phát triển cùng với các Nguyên tắc AI của Microsoft, AI chịu trách nhiệm của Microsoft Standard và cộng tác với các chuyên gia AI chịu trách nhiệm trong toàn công ty, bao gồm Văn phòng AI Chịu trách nhiệm của Microsoft, nhóm kỹ thuật của chúng tôi, Nghiên cứu của Microsoft và Aether. Bạn có thể tìm hiểu thêm về AI chịu trách nhiệm tại Microsoft tại đây.  

Trong tài liệu này, chúng tôi mô tả phương pháp tiếp cận của chúng tôi để AI chịu trách nhiệm cho Copilot. Trước khi phát hành, chúng tôi đã tận dụng các phương pháp hiện đại của Microsoft để ánh xạ, đo lường và quản lý các rủi ro tiềm ẩn và lạm dụng hệ thống, đồng thời bảo mật lợi ích của hệ thống cho người dùng. Khi chúng tôi tiếp tục phát triển Copilot, chúng tôi cũng đã tiếp tục học hỏi và cải thiện những nỗ lực AI có trách nhiệm của mình. Tài liệu này sẽ được cập nhật định kỳ để truyền đạt các quy trình và phương pháp đang phát triển của chúng tôi.  

Các thuật ngữ chính

Bộ phân loại    Mô hình học máy giúp sắp xếp dữ liệu thành các lớp học có nhãn hoặc thể loại thông tin. Trong trải nghiệm Copilot được cập nhật, một cách mà chúng tôi sử dụng bộ phân loại là giúp phát hiện nội dung có khả năng gây hại do người dùng gửi hoặc được tạo ra bởi hệ thống để giảm thiểu việc tạo nội dung đó và sử dụng sai mục đích hoặc lạm dụng hệ thống. 

Nền tảng    Đối với một số cuộc hội thoại nhất định mà người dùng đang tìm kiếm thông tin, Copilot được căn cứ vào kết quả tìm kiếm trên web. Điều này có nghĩa là Copilot đặt trung tâm phản hồi của mình vào nội dung xếp hạng cao từ web và cung cấp các câu trích dẫn có siêu liên kết sau các câu trả lời văn bản được tạo ra. Lưu ý rằng, tại thời điểm này, lời nhắc người dùng trong chế độ thoại sẽ không kích hoạt tìm kiếm trên web, do đó, sẽ không có câu trả lời nào bao gồm các câu trích dẫn.

Các kiểu ngôn ngữ lớn (LLM)    Các mô hình ngôn ngữ lớn (LLM) trong ngữ cảnh này là mô hình AI được đào tạo về lượng lớn dữ liệu văn bản để dự đoán từ theo trình tự. LLMs có thể thực hiện nhiều tác vụ khác nhau, chẳng hạn như tạo văn bản, tóm tắt, dịch, phân loại và nhiều tác vụ khác.

Sự làm dịu    Một phương pháp hoặc tổ hợp các phương pháp được thiết kế để giảm thiểu rủi ro tiềm ẩn có thể phát sinh từ việc sử dụng các tính năng AI trong Copilot.

Mô hình đa mô thức (MMM)    Mô hình đa mô thức (MMM) là mô hình AI được đào tạo về các loại dữ liệu khác nhau, chẳng hạn như văn bản, hình ảnh hoặc âm thanh. Các mô hình này có thể thực hiện nhiều tác vụ khác nhau, chẳng hạn như viết văn bản, mô tả hình ảnh, nhận dạng giọng nói và tìm thông tin trên các loại dữ liệu khác nhau.

Yêu cầu    Đầu vào ở dạng văn bản, hình ảnh và/hoặc âm thanh mà người dùng gửi đến Copilot để tương tác với các tính năng AI trong Copilot.

Nhóm màu đỏ    Kỹ thuật được các chuyên gia sử dụng để đánh giá các hạn chế và lỗ hổng của một hệ thống và để kiểm tra hiệu quả của các biện pháp giảm nhẹ theo kế hoạch. Kiểm tra nhóm đỏ bao gồm những người thử nghiệm sử dụng cả tư cách lành tính và trạng từ để xác định các rủi ro tiềm ẩn và khác biệt với các phép đo có hệ thống về rủi ro.

Phản ứng    Văn bản, hình ảnh hoặc âm thanh mà Người phụ trách chuyển đổi đầu ra phản hồi lời nhắc hoặc một phần của qua lại với người dùng. Từ đồng nghĩa cho "response" bao gồm "completion" (hoàn thành), "generation, and "answer" (trả lời).

Các kiểu ngôn ngữ nhỏ (SLM)    Mô hình ngôn ngữ nhỏ (SLM) trong ngữ cảnh này là các mô hình AI được đào tạo về lượng dữ liệu nhỏ hơn, tập trung hơn so với các kiểu ngôn ngữ lớn. Mặc dù có kích cỡ nhỏ hơn, các SM có thể thực hiện nhiều tác vụ khác nhau, chẳng hạn như tạo văn bản, tóm tắt, dịch và phân loại. Mặc dù chúng có thể không phù hợp với các khả năng mở rộng của LLM, nhưng các máy chủ slm thường hiệu quả hơn về tài nguyên và có thể hiệu quả cao cho các ứng dụng cụ thể, được nhắm mục tiêu. 

Thông báo Hệ thống    Thông báo hệ thống (đôi khi được gọi là "metaprompt") là một chương trình phục vụ để hướng dẫn hành vi của hệ thống. Các phần của thông báo hệ thống giúp căn chỉnh hành vi của hệ thống theo Các nguyên tắc AI của Microsoft và kỳ vọng của người dùng. Ví dụ: thông báo hệ thống có thể bao gồm một dòng chẳng hạn như "không cung cấp thông tin hoặc tạo nội dung có thể gây hại về mặt vật lý, tình cảm hoặc tài chính". 

Chức năng

Hành vi hệ thống

Với Copilot, chúng tôi đã phát triển một phương pháp tiếp cận sáng tạo để mang lại trải nghiệm AI được cá nhân hóa hơn cho người dùng để có trải nghiệm hấp dẫn có thể giúp người dùng thực hiện nhiều tác vụ khác nhau. Cách tiếp cận sáng tạo này tận dụng nhiều công nghệ tiên tiến khác nhau, chẳng hạn như ngôn ngữ và mô hình đa phương thức từ Microsoft, OpenAI và các nhà phát triển mô hình khác. Chúng tôi đã nỗ lực thực hiện các kỹ thuật an toàn cho các mô hình làm cơ sở cho trải nghiệm Copilot mới trước khi phát hành công khai để phát triển bộ khả năng và hành vi tùy chỉnh cung cấp trải nghiệm Copilot nâng cao. Trong Copilot đã cập nhật, người dùng có thể gửi lời nhắc bằng văn bản ngôn ngữ tự nhiên hoặc giọng nói. Các phản hồi được trình bày cho người dùng ở một số định dạng khác nhau, chẳng hạn như phản hồi trò chuyện trong biểu mẫu văn bản (có liên kết truyền thống đến nội dung web nếu cần) và hình ảnh (nếu yêu cầu hình ảnh được thực hiện như một phần của lời nhắc). Nếu người dùng gửi lời nhắc bằng giọng nói ngôn ngữ tự nhiên trong chế độ Giọng nói Copilot, họ sẽ nhận được phản hồi âm thanh. 

Khi người dùng nhập lời nhắc trong Copilot, lời nhắc, lịch sử hội thoại và thông báo hệ thống sẽ được gửi qua một số bộ phân loại đầu vào để giúp lọc nội dung có hại hoặc không phù hợp. Đây là bước đầu tiên rất quan trọng để giúp cải thiện hiệu suất của mô hình và giảm thiểu các tình huống mà trong đó người dùng có thể tìm cách nhắc mô hình theo cách có thể không an toàn. Sau khi lời nhắc đi qua bộ phân loại đầu vào, lời nhắc sẽ được gửi đến SLM để xác định xem yêu cầu có yêu cầu dữ liệu nối tiếp từ web hay không và kiểu ngôn ngữ nào sẽ phản hồi yêu cầu. Tất cả các mô hình tạo ra phản hồi bằng cách sử dụng lời nhắc và lịch sử hội thoại gần đây của người dùng để theo ngữ cảnh hóa yêu cầu, thông báo hệ thống để căn chỉnh phản hồi theo Nguyên tắc AI của Microsoft và kỳ vọng của người dùng và nếu thích hợp, hãy căn chỉnh phản hồi với kết quả tìm kiếm với phản hồi mặt đất trong nội dung hiện có, có xếp hạng cao từ web.  

Các câu trả lời được trình bày cho người dùng ở một số định dạng khác nhau, chẳng hạn như phản hồi trò chuyện trong biểu mẫu văn bản, liên kết truyền thống đến nội dung web, hình ảnh và phản hồi âm thanh. Khi các câu trả lời được cung cấp dưới dạng văn bản và các phản hồi được căn cứ vào dữ liệu từ web-đầu ra chứa các câu trích dẫn siêu liên kết được liệt kê bên dưới văn bản để người dùng có thể truy cập (các) trang web đã được sử dụng để nối đất phản hồi và tìm hiểu thêm về chủ đề từ đó. Copilot cũng có thể chạy mã để hoàn thành tính toán phức tạp và tạo đồ thị. Copilot có thể lưu trữ các dữ kiện cụ thể mà người dùng yêu cầu ghi nhớ, cho phép họ tạo ra các phản hồi và đề xuất có liên quan hơn dựa trên ngữ cảnh đó. Copilot cũng có thể xóa dữ kiện đã lưu khi người dùng yêu cầu quên chúng một cách rõ ràng.

Copilot cũng giúp người dùng tạo câu chuyện, bài thơ, lời bài hát và hình ảnh mới. Khi Copilot phát hiện mục đích của người dùng để tạo nội dung sáng tạo (chẳng hạn như lời nhắc người dùng bắt đầu bằng "viết cho tôi một ..."), thì trong hầu hết các trường hợp, hệ thống sẽ tạo nội dung phản hồi với lời nhắc của người dùng. Tương tự, khi Copilot phát hiện mục đích của người dùng để tạo ra một hình ảnh (chẳng hạn như lời nhắc người dùng bắt đầu bằng "vẽ cho tôi một ..."), Thì trong hầu hết các trường hợp, Copilot sẽ tạo ra một hình ảnh phản hồi với lời nhắc của người dùng. Khi Copilot phát hiện có ý định sửa đổi hình ảnh đã tải lên của người dùng (chẳng hạn như lời nhắc người dùng bắt đầu bằng "thêm ..."), Thì trong hầu hết các trường hợp, Copilot sẽ sửa đổi hình ảnh phản hồi lời nhắc của người dùng. Copilot có thể không phản hồi với nội dung sáng tạo khi lời nhắc người dùng chứa một số thuật ngữ nhất định có thể dẫn đến nội dung có vấn đề.

Người dùng có tài khoản Microsoft (MSA) hiện cũng có tùy chọn đăng ký Copilot Pro, cung cấp trải nghiệm nâng cao, bao gồm hiệu suất tăng tốc, sử dụng khả năng Thoại của Copilot trong khoảng thời gian dài hơn và trong một số trường hợp, quyền truy cập vào các tính năng mới, thử nghiệm. Copilot Pro hiện có sẵn ở một số quốc gia hạn chế và chúng tôi dự định sớm cung cấp Copilot Pro tại nhiều thị trường khác.

Hành vi An toàn Dự kiến

Mục tiêu của chúng tôi cho Copilot là hữu ích cho người dùng. Bằng cách tận dụng các biện pháp tốt nhất từ các sản phẩm và dịch vụ AI khác của Microsoft, chúng tôi nhằm hạn chế Copilot tạo nội dung có vấn đề và tăng khả năng có trải nghiệm người dùng an toàn và tích cực. Mặc dù chúng tôi đã thực hiện các bước để giảm thiểu rủi ro, việc tạo ra các mô hình AI như mô hình đằng sau Copilot có tính xác thực và có thể mắc lỗi, có nghĩa là các biện pháp giảm nhẹ đôi khi có thể không chặn được lời nhắc của người dùng có hại hoặc phản hồi do AI tạo ra. Nếu bạn gặp phải nội dung có hại hoặc không mong muốn trong khi sử dụng Copilot, hãy cho chúng tôi biết bằng cách cung cấp phản hồi để chúng tôi có thể tiếp tục cải thiện trải nghiệm.

Trường hợp sử dụng

Mục đích sử dụng

Copilot nhằm hỗ trợ người dùng trả lời một loạt các câu hỏi bất kể tình huống hay chủ đề. Người dùng có thể tương tác với Copilot bằng cách sử dụng đầu vào văn bản, hình ảnh và âm thanh trong đó các tương tác được thiết kế để cảm thấy giống như các cuộc hội thoại tự nhiên với một hệ thống AI. Ngoài ra, nếu người dùng đang tương tác với Copilot qua văn bản để tìm kiếm thông tin cụ thể về các chủ đề mà Copilot có thể yêu cầu thêm thông tin để tạo ra câu trả lời chính xác hơn, trải nghiệm này nhằm kết nối người dùng với kết quả tìm kiếm liên quan, xem xét kết quả từ trên web và tóm tắt thông tin mà người dùng đang tìm kiếm. Trong Copilot, người dùng có thể: 

  • Tóm tắt thông tin trong thời gian thực khi trò chuyện qua tin nhắn văn bản.    Khi người dùng tương tác với Copilot qua văn bản, hệ thống sẽ thực hiện tìm kiếm trên web nếu cần thêm thông tin và sẽ sử dụng kết quả tìm kiếm trên web hàng đầu để tạo bản tóm tắt thông tin để trình bày cho người dùng. Các bản tóm tắt này bao gồm các câu trích dẫn vào trang web để giúp người dùng xem và dễ dàng truy cập các nguồn kết quả tìm kiếm giúp tóm tắt dựa trên nền đất của Copilot. Người dùng có thể bấm vào các liên kết này để đi thẳng đến nguồn nếu họ muốn tìm hiểu thêm.

  • Trò chuyện với hệ thống AI bằng văn bản.    Người dùng có thể trò chuyện với Copilot qua tin nhắn văn bản và đặt câu hỏi theo dõi để tìm thông tin mới và nhận hỗ trợ qua nhiều chủ đề khác nhau.

  • Giao diện với AI bằng giọng nói và ngoại hình.    Copilot không chỉ có thể nhận đầu vào âm thanh mà còn tạo ra đầu ra âm thanh ở một trong bốn giọng nói do người dùng chọn và trình bày hình thức trực quan để làm phong phú thêm tương tác. Khả năng chuyển âm thanh sang âm thanh và giao diện cho phép người dùng tương tác với Copilot theo cách tự nhiên và trơn tru hơn.

  • Nhận nội dung tin tức dễ hiểu.    Người dùng có thể sử dụng Copilot để nhận thông tin tóm tắt về tin tức, thời tiết và các cập nhật khác dựa trên các lĩnh vực chủ đề được chọn qua tính năng Copilot Hằng ngày và nghe các cuộc họp ở định dạng giống như podcast. Tính năng này sẽ lấy nội dung từ các nguồn được ủy quyền có thỏa thuận với Microsoft.

  • Nhận trợ giúp tạo ra các ý tưởng mới.    Mỗi lần người dùng tương tác với trải nghiệm Copilot, họ sẽ thấy một tập hợp các thẻ mà họ có thể bấm vào để bắt đầu trò chuyện với Copilot về các chủ đề hữu ích và thú vị. Nếu người dùng đã tương tác với các dịch vụ khác của Microsoft dành cho người tiêu dùng, thẻ sẽ được cá nhân hóa, cùng với chính sách về quyền riêng tư của chúng tôi. Theo thời gian, các thẻ trong Copilot có thể được cá nhân hóa dựa trên lịch sử trò chuyện của người dùng. Người dùng có thể chọn không tham gia cá nhân hóa bất cứ lúc nào trong cài đặt và chúng tôi vẫn đang khám phá các tùy chọn cá nhân hóa sau này cho người dùng trong EEA (Khu vực Kinh tế Châu Âu) và Vương quốc Anh.

  • Tạo nội dung sáng tạo.    Khi trò chuyện với Copilot, người dùng có thể tạo bài thơ, truyện cười, câu chuyện, hình ảnh và nội dung khác mới với sự trợ giúp từ trải nghiệm Copilot. Copilot cũng có thể chỉnh sửa hình ảnh do người dùng tải lên nếu được yêu cầu.

  • Thực hiện tác vụ trên Android.Người dùng có thể tương tác với Copilot thông qua nền tảng Android thông qua giọng nói để thực hiện một số tác vụ nhất định. Các tác vụ này đặt hẹn giờ và báo thức, thực hiện cuộc gọi điện thoại, gửi tin nhắn SMS và đặt mua xe Uber. Người dùng phải xác nhận cuộc gọi điện thoại, tin nhắn SMS và đơn hàng Uber trước khi hoàn tất các tác vụ.

  • Hỗ trợ nghiên cứu.  Copilot có thể thực hiện các tác vụ nghiên cứu bằng cách lướt các tài nguyên chuyên sâu, cung cấp phân tích chi tiết về các chủ đề và liên kết đến các nguồn để giúp người dùng vượt qua những câu trả lời nhanh cho các truy vấn phức tạp hơn.

  • Khám phá thế giới với Copilot Vision. Copilot có thể xem màn hình hoặc nguồn cấp dữ liệu camera di động của bạn và sử dụng giọng nói của mình để trả lời các câu hỏi và tương tác với bạn. Copilot có thể ngay lập tức quét, phân tích và cung cấp thông tin chuyên sâu cũng như đề xuất trong thời gian thực để hỗ trợ bạn khi bạn làm việc, duyệt hoặc khám phá thế giới. Copilot Vision có sẵn trên Edge, Windows, iOS và Android.

Cân nhắc khi chọn các trường hợp sử dụng khác

Chúng tôi khuyến khích người dùng xem lại tất cả nội dung trước khi đưa ra quyết định hoặc hành động dựa trên phản hồi của Copilot vì AI có thể gây ra lỗi. Ngoài ra, có một số kịch bản nhất định mà chúng tôi khuyên bạn nên tránh hoặc đi ngược lại Điều khoản Sử dụng của chúng tôi. Ví dụ: Microsoft không cho phép sử dụng Copilot liên quan đến các hoạt động bất hợp pháp hoặc cho bất kỳ mục đích nào nhằm mục đích thúc đẩy hoạt động bất hợp pháp.  

Giới hạn

Các mô hình ngôn ngữ, hình ảnh và âm thanh mà về cơ bản là trải nghiệm Copilot có thể bao gồm dữ liệu đào tạo có thể phản ánh thành kiến xã hội, điều này có thể khiến cho Copilot hoạt động theo cách được coi là không công bằng, không đáng tin cậy hoặc xúc phạm. Mặc dù chúng tôi đã đào tạo mô hình chuyên sâu và tinh chỉnh an toàn, cũng như thực hiện các hệ thống kiểm soát ai có trách nhiệm và an toàn mà chúng tôi đặt vào dữ liệu đào tạo, lời nhắc người dùng và đầu ra mô hình, các dịch vụ điều khiển AI là khả thi và xác thực. Điều này khiến việc chặn toàn diện tất cả nội dung không phù hợp dẫn đến rủi ro tiềm ẩn về thành kiến, rập khuôn, không có mặt hoặc các loại gây hại khác có thể xuất hiện trong nội dung do AI tạo ra. Một số cách mà những hạn chế đó có thể biểu hiện trong trải nghiệm Copilot được liệt kê ở đây. 

  • Rập khuôn: Trải nghiệm Copilot có thể củng cố rập khuôn. Ví dụ, khi dịch "Anh ấy là một y tá" và "Cô ấy là bác sĩ" sang một ngôn ngữ không giống như tiếng Thổ Nhĩ Kỳ và sau đó trở lại tiếng Anh, Copilot có thể vô tình cho ra kết quả rập khuôn (và không chính xác) của "Cô ấy là một y tá" và "Anh ấy là một bác sĩ." Một ví dụ khác là khi tạo ra một hình ảnh dựa trên lời nhắc "Trẻ em không cha", hệ thống có thể tạo ra hình ảnh của trẻ em chỉ từ một chủng tộc hoặc dân tộc, củng cố rập khuôn có hại có thể tồn tại trong các hình ảnh có sẵn công khai được sử dụng để đào tạo các mô hình cơ bản. Copilot cũng có thể củng cố rập khuôn dựa trên nội dung trong hình ảnh đầu vào của người dùng bằng cách dựa vào các thành phần của hình ảnh và đưa ra giả định có thể không đúng. Chúng tôi đã triển khai các biện pháp giảm thiểu để giảm rủi ro của nội dung có chứa các rập khuôn phản cảm, bao gồm cả phân loại đầu vào và đầu ra, các mô hình được tinh chỉnh và thông báo hệ thống.

  • Trình bày quá mức và trình bày sai: Copilot có thể có khả năng đại diện quá mức hoặc dưới đại diện cho các nhóm người, hoặc thậm chí không đại diện cho họ ở tất cả, trong các phản ứng của nó. Ví dụ: nếu lời nhắc văn bản có chứa từ "gay" được phát hiện là có khả năng gây hại hoặc xúc phạm, điều này có thể dẫn đến sự trình bày sai về các thế hệ hợp pháp về cộng đồng LGBTQIA+. Ngoài việc bao gồm các bộ phân loại đầu vào và đầu ra, các mô hình được tinh chỉnh cũng như thông báo hệ thống, chúng tôi sử dụng làm phong phú lời nhắc trong Designer như một trong một số biện pháp giảm nhẹ để giảm nguy cơ nội dung đại diện cho nhóm người quá hoặc dưới.

  • Nội dung không phù hợp hoặc xúc phạm: Trải nghiệm Copilot có thể tạo ra các loại nội dung không phù hợp hoặc xúc phạm khác. Ví dụ bao gồm khả năng tạo nội dung theo một phương thức (ví dụ: âm thanh) không phù hợp trong ngữ cảnh của lời nhắc hoặc khi so sánh với cùng một đầu ra theo phương thức khác (ví dụ: văn bản). Các ví dụ khác bao gồm hình ảnh do AI tạo có khả năng chứa các thành phần có hại như biểu tượng ghét, nội dung liên quan đến các chủ đề tranh luận, gây tranh cãi hoặc phân cực về tư tưởng và nội dung bị tính phí khiêu dâm né bộ lọc nội dung liên quan đến tình dục. Chúng tôi đã áp dụng các biện pháp giảm thiểu để giảm thiểu rủi ro của các thế hệ chứa nội dung không phù hợp hoặc xúc phạm, chẳng hạn như phân loại đầu vào và đầu ra, mô hình được tinh chỉnh và thông báo hệ thống.

  • Độ tin cậy thông tin: Mặc dù Copilot nhằm mục đích đáp ứng với các nguồn đáng tin cậy khi cần thiết, AI có thể gây ra lỗi. Nó có khả năng tạo ra nội dung không nhạy cảm hoặc chế tạo nội dung nghe có thể hợp lý nhưng thực tế là không chính xác. Ngay cả khi vẽ phản hồi từ dữ liệu web có thẩm quyền cao, các phản hồi có thể trình bày sai nội dung đó theo cách có thể không hoàn toàn chính xác hoặc đáng tin cậy. Chúng tôi nhắc người dùng thông qua giao diện người dùng và trong tài liệu như thế này rằng Copilot có thể gây ra lỗi. Chúng tôi cũng tiếp tục hướng dẫn người dùng về các giới hạn của AI, chẳng hạn như khuyến khích họ kiểm tra lại dữ kiện trước khi đưa ra quyết định hoặc hành động dựa trên phản hồi của Copilot. Khi người dùng tương tác với Copilot thông qua tin nhắn văn bản, nó sẽ cố gắng tự tiếp đất trong dữ liệu web chất lượng cao để giảm rủi ro mà các thế hệ chưa có mặt.

  • Hiệu suất đa ngôn ngữ: Có thể có các biến thể về hiệu suất trên các ngôn ngữ, với tiếng Anh hoạt động tốt nhất tại thời điểm phát hành Copilot cập nhật. Cải thiện hiệu suất trên nhiều ngôn ngữ là một lĩnh vực đầu tư chính và các mô hình gần đây đã giúp cải thiện hiệu suất.

  • Giới hạn âm thanh: Mô hình âm thanh có thể đặt ra các giới hạn khác. Nói rộng ra, chất lượng âm thanh của đầu vào giọng nói, tiếng ồn không phải giọng nói, từ vựng, dấu và lỗi chèn cũng có thể ảnh hưởng đến việc liệu các quy trình của Copilot có phản hồi đầu vào âm thanh của người dùng một cách thỏa đáng hay không. Ngoài ra, vì lời nhắc người dùng khi sử dụng Copilot Voice sẽ không kích hoạt tìm kiếm trên web nên Copilot có thể không phản hồi được các sự kiện hiện tại ở chế độ thoại.

  • Phụ thuộc vào khả năng kết nối Internet: Trải nghiệm Copilot được cập nhật dựa trên khả năng kết nối Internet để hoạt động. Sự gián đoạn trong khả năng kết nối có thể ảnh hưởng đến tính khả dụng và hiệu suất của dịch vụ.

Hiệu suất hệ thống

Trong nhiều hệ thống AI, hiệu suất thường được xác định liên quan đến độ chính xác (nghĩa là mức độ thường xuyên mà hệ thống AI cung cấp dự đoán hoặc đầu ra chính xác). Với Copilot, chúng tôi tập trung vào Copilot với tư cách là trợ lý có hỗ trợ AI phản ánh sở thích của người dùng. Do đó, hai người dùng khác nhau có thể xem cùng một đầu ra và có ý kiến khác nhau về mức độ hữu ích hoặc liên quan đến tình hình và kỳ vọng độc đáo của họ, có nghĩa là hiệu suất cho các hệ thống này phải được xác định linh hoạt hơn. Chúng tôi xem xét rộng rãi hiệu suất để có nghĩa là ứng dụng hoạt động như người dùng mong đợi.

Các biện pháp tốt nhất để cải thiện hiệu suất hệ thống 

Tương tác với giao diện bằng ngôn ngữ tự nhiên, trò chuyện.    Tương tác với Copilot theo cách thoải mái cho người dùng là chìa khóa để đạt được kết quả tốt hơn thông qua trải nghiệm. Tương tự như áp dụng các kỹ thuật để giúp mọi người giao tiếp hiệu quả trong cuộc sống hàng ngày của họ, tương tác với Copilot như một trợ lý có hỗ trợ AI thông qua văn bản hoặc bài phát biểu quen thuộc với người dùng có thể giúp tạo ra kết quả tốt hơn.

Trải nghiệm người dùng và việc tiếp nhận.    Việc sử dụng Copilot hiệu quả đòi hỏi người dùng phải hiểu rõ khả năng và giới hạn của mình. Có thể có một đường cong tìm hiểu và người dùng có thể muốn tham khảo các tài nguyên Copilot khác nhau (ví dụ: tài liệu này và Câu hỏi thường gặp về Copilot của chúng tôi) để tương tác hiệu quả và hưởng lợi từ dịch vụ.

Lập bản đồ, đo lường và quản lý rủi ro

Giống như các công nghệ chuyển đổi khác, việc khai thác lợi ích của AI không phải là không gặp rủi ro và một phần cốt lõi của chương trình AI chịu trách nhiệm của Microsoft được thiết kế để xác định và ánh xạ các rủi ro tiềm ẩn, đo lường những rủi ro đó và quản lý chúng bằng cách xây dựng các biện pháp giảm thiểu và liên tục cải thiện Copilot theo thời gian. Trong các mục dưới đây, chúng tôi mô tả phương pháp tiếp cận lặp của mình để ánh xạ, đo lường và quản lý các rủi ro tiềm ẩn.

Bản đồ: Lập kế hoạch cẩn thận và kiểm tra đối thủ trước khi triển khai, chẳng hạn như nhóm màu đỏ, giúp chúng tôi ánh xạ các rủi ro tiềm ẩn. Các mô hình cơ bản hỗ trợ trải nghiệm Copilot trải nghiệm qua kiểm tra nhóm màu đỏ từ những người kiểm tra đại diện cho các quan điểm đa ngành trên các lĩnh vực chủ đề liên quan. Thử nghiệm này được thiết kế để đánh giá cách công nghệ mới nhất hoạt động cùng với và không có bất kỳ biện pháp bảo vệ bổ sung nào được áp dụng cho nó. Mục đích của các bài tập này ở mức mô hình là để sản xuất các phản ứng có hại, con đường tiềm năng bề mặt để sử dụng sai, và xác định khả năng và giới hạn.

Trước khi cung cấp trải nghiệm Copilot công khai trong bản xem trước bản phát hành giới hạn, chúng tôi cũng đã tiến hành nhóm màu đỏ ở cấp ứng dụng để đánh giá Copilot để khắc phục các thiếu sót và lỗ hổng. Quy trình này đã giúp chúng tôi hiểu rõ hơn về cách nhiều người dùng có thể sử dụng hệ thống và giúp chúng tôi cải thiện các biện pháp giảm nhẹ.

Đo lường: Ngoài việc đánh giá Copilot dựa trên đánh giá an toàn hiện có của chúng tôi, việc sử dụng nhóm màu đỏ được mô tả ở trên đã giúp chúng tôi phát triển đánh giá và số liệu AI chịu trách nhiệm tương ứng với các rủi ro tiềm ẩn được xác định, chẳng hạn như jailbreaks, nội dung có hại và nội dung không có mặt.

Chúng tôi đã thu thập dữ liệu hội thoại nhắm mục tiêu những rủi ro này, bằng cách sử dụng kết hợp những người tham gia của con người và quy trình tạo cuộc hội thoại tự động. Mỗi đánh giá sau đó được ghi điểm bởi một nhóm các chú thích con người được đào tạo hoặc một đường ống dẫn chú thích tự động. Mỗi lần thay đổi sản phẩm, các biện pháp giảm nhẹ hiện tại được cập nhật hoặc các biện pháp giảm nhẹ mới được đề xuất, chúng tôi cập nhật quy trình đánh giá của mình để đánh giá cả hiệu suất sản phẩm và các chỉ số AI chịu trách nhiệm. Các đường ống dẫn ngữ cảnh đánh giá tự động này là sự kết hợp của các cuộc hội thoại được thu thập với các đánh giá của con người và các cuộc hội thoại tổng hợp được tạo ra với CÁC LLM được nhắc kiểm tra các chính sách theo cách đối nghịch. Mỗi đánh giá an toàn này được tự động ghi điểm với LLM. Đối với đánh giá mới được phát triển, mỗi đánh giá ban đầu được ghi điểm bởi các nhãn của con người, những người đọc nội dung văn bản hoặc nghe đầu ra âm thanh, và sau đó chuyển thành đánh giá tự động dựa trên LLM.

Hành vi dự kiến của các mô hình kết hợp với đường ống đánh giá của chúng tôi — cả con người và tự động — cho phép chúng tôi nhanh chóng thực hiện đo lường các rủi ro tiềm ẩn ở quy mô. Khi chúng tôi xác định các vấn đề mới theo thời gian, chúng tôi tiếp tục mở rộng các bộ đo lường để đánh giá các rủi ro bổ sung. 

Quản lý: Khi chúng tôi xác định các rủi ro tiềm ẩn và lạm dụng thông qua nhóm màu đỏ và đo chúng bằng các phương pháp tiếp cận được mô tả ở trên, chúng tôi đã phát triển các biện pháp giảm nhẹ bổ sung dành riêng cho trải nghiệm Copilot. Dưới đây, chúng tôi mô tả một số trong những biện pháp giảm nhẹ đó. Chúng tôi sẽ tiếp tục giám sát trải nghiệm Copilot để cải thiện hiệu suất sản phẩm và phương pháp tiếp cận giảm thiểu rủi ro của chúng tôi. 

  • Kế hoạch phát hành theo giai đoạn và đánh giá liên tục.    Chúng tôi cam kết học hỏi và cải tiến liên tục phương pháp tiếp cận AI có trách nhiệm khi công nghệ và hành vi người dùng của chúng tôi phát triển. Chiến lược phát hành gia tăng của chúng tôi đã là một phần cốt lõi của cách chúng tôi di chuyển công nghệ của chúng tôi một cách an toàn từ phòng thí nghiệm vào thế giới, và chúng tôi cam kết một quá trình suy nghĩ cẩn trọng để đảm bảo lợi ích của trải nghiệm Copilot. Chúng tôi đang thực hiện thay đổi đối với Copilot thường xuyên để cải thiện hiệu suất sản phẩm và các biện pháp giảm nhẹ hiện có, đồng thời triển khai các biện pháp giảm thiểu mới nhằm đáp ứng với các bài học của chúng tôi.

  • Tận dụng bộ phân loại và thông báo hệ thống để giảm thiểu rủi ro tiềm ẩn hoặc lạm dụng.    Để đáp lại lời nhắc của người dùng, LLM có thể tạo ra nội dung có vấn đề. Chúng tôi đã thảo luận các loại nội dung mà chúng tôi cố gắng giới hạn trong các mục Hành vi và Giới hạn Hệ thống ở trên. Bộ phân loại và thông báo hệ thống là hai ví dụ về các biện pháp giảm nhẹ đã được triển khai trong Copilot nhằm giúp giảm rủi ro của các loại nội dung này. Bộ phân loại phân loại văn bản để gắn cờ nội dung có thể gây hại trong lời nhắc người dùng hoặc phản hồi được tạo ra. Chúng tôi cũng sử dụng các biện pháp tốt nhất hiện có để tận dụng thông điệp hệ thống, bao gồm việc cung cấp hướng dẫn cho mô hình để phù hợp với hành vi của mình với các nguyên tắc AI của Microsoft và theo kỳ vọng của người dùng.

  • Đồng ý tải lên hình ảnh Copilot.    Lần đầu tiên người dùng tải hình ảnh có chứa khuôn mặt lên Copilot, họ sẽ được yêu cầu cung cấp sự chấp thuận của họ để tải dữ liệu sinh trắc học lên Copilot. Nếu người dùng không chọn tham gia, hình ảnh sẽ không được gửi đến Copilot. Tất cả hình ảnh, bất kể chúng có chứa khuôn mặt hay không, sẽ bị xóa trong vòng 30 ngày sau khi cuộc hội thoại kết thúc.

  • Tiết lộ AI.    Copilot cũng được thiết kế để thông báo cho mọi người rằng họ đang tương tác với một hệ thống AI. Khi người dùng tương tác với Copilot, chúng tôi cung cấp nhiều điểm tiếp cận khác nhau được thiết kế để giúp họ hiểu rõ khả năng của hệ thống, tiết lộ với họ rằng Copilot hoạt động trên cơ chế AI và giao tiếp với các giới hạn. Trải nghiệm được thiết kế theo cách này để giúp người dùng tận dụng tối đa Copilot và giảm thiểu rủi ro liên quan. Tiết lộ cũng giúp người dùng hiểu rõ hơn về Copilot và tương tác của họ với Copilot.

  • Phương tiện chứng minh.    Khi Copilot tạo một hình ảnh, chúng tôi đã bật tính năng "Thông tin xác thực Nội dung", tính năng này sử dụng các phương pháp mã hóa để đánh dấu nguồn hoặc "chứng minh", tất cả hình ảnh do AI tạo bằng Copilot. Công nghệ này sử dụng các tiêu chuẩn do Liên minh về Nội dung và Xác thực (C2PA) thiết lập để thêm lớp tin cậy và độ trong suốt cho hình ảnh do AI tạo ra.

  • Tự động phát hiện nội dung.    Khi người dùng tải lên hình ảnh như một phần trong lời nhắc trò chuyện của họ, Copilot sẽ triển khai các công cụ để phát hiện hình ảnh bóc lột và lạm dụng tình dục trẻ em (CSEAI). Microsoft báo cáo tất cả CSEAI rõ ràng cho Trung tâm Quốc gia về trẻ em bị mất tích và bị lợi dụng (NCMEC), theo yêu cầu của luật pháp Hoa Kỳ. Khi người dùng tải tệp lên để phân tích hoặc xử lý, Copilot sẽ triển khai tính năng quét tự động để phát hiện nội dung có thể dẫn đến rủi ro hoặc sử dụng sai, chẳng hạn như văn bản có thể liên quan đến hoạt động bất hợp pháp hoặc mã độc hại.

  • Điều khoản Sử dụng và Quy tắc Ứng xử.    Người dùng nên tuân thủ Các Điều khoản Sử dụng và Quy tắc Ứng xử thỏa thuận Dịch vụ của Microsoft và Điều khoản về Quyền riêng tư của Microsoft, v.v... thông báo cho họ về việc sử dụng được cho phép và không được phép cũng như hậu quả của việc vi phạm các điều khoản. Điều khoản Sử dụng cũng cung cấp thông tin tiết lộ bổ sung cho người dùng và là tài liệu tham khảo để người dùng tìm hiểu về Copilot. Người dùng vi phạm nghiêm trọng hoặc lặp lại có thể bị tạm ngừng hoặc vĩnh viễn khỏi dịch vụ.

  • Phản hồi, giám sát và giám sát.    Trải nghiệm Copilot được xây dựng dựa trên công cụ hiện có cho phép người dùng gửi phản hồi, được các nhóm hoạt động của Microsoft xem xét. Hơn nữa, phương pháp tiếp cận của chúng tôi để lập bản đồ, đo lường và quản lý rủi ro sẽ tiếp tục phát triển khi chúng tôi tìm hiểu thêm, và chúng tôi đã thực hiện những cải tiến dựa trên phản hồi thu thập được trong các giai đoạn xem trước.

Tìm hiểu thêm về AI chịu trách nhiệm

Báo cáo minh bạch AI chịu trách nhiệm của Microsoft

Nguyên tắc Microsoft AI

Tài nguyên AI Chịu trách nhiệm của Microsoft

Các khóa học Microsoft Azure Learning về AI Chịu trách nhiệm

Tìm hiểu thêm về Microsoft Copilot

Microsoft Copilot Hỏi Thường Gặp

Giới thiệu về tài liệu này

© Microsoft Corporation 2024. Mọi quyền đã được bảo lưu. Tài liệu này được cung cấp "như hiện tại" và chỉ cho mục đích thông tin. Thông tin và dạng xem được thể hiện trong tài liệu này, bao gồm URL và các tham chiếu Website Internet khác, có thể thay đổi mà không cần thông báo. Bạn phải chịu rủi ro khi sử dụng phần mềm. Một số ví dụ chỉ để minh họa và là đồ họa. Không có sự liên kết thực sự là dự định hoặc suy ra.

Tài liệu này không nhằm mục đích, và không nên được hiểu là cung cấp tư vấn pháp lý. Khu vực pháp lý mà bạn đang hoạt động có thể có các yêu cầu pháp lý hoặc quy định khác nhau áp dụng cho hệ thống AI của bạn. Tham khảo ý kiến chuyên gia pháp lý nếu bạn không chắc chắn về các luật hoặc quy định có thể áp dụng cho hệ thống của bạn, đặc biệt là nếu bạn nghĩ rằng những người có thể ảnh hưởng đến các đề xuất này. Hãy lưu ý rằng không phải tất cả các đề xuất và tài nguyên này sẽ phù hợp với mọi kịch bản và ngược lại, các đề xuất và tài nguyên này có thể không đủ cho một số kịch bản.

Ngày phát hành: 10/01/2024

Cập nhật gần nhất: 01/10/2024

Bạn cần thêm trợ giúp?

Bạn muốn xem các tùy chọn khác?

Khám phá các lợi ích của gói đăng ký, xem qua các khóa đào tạo, tìm hiểu cách bảo mật thiết bị của bạn và hơn thế nữa.