Terakhir diperbarui: Oktober 2025

Apa itu Catatan Transparansi?

Sistem AI tidak hanya mencakup teknologi, tetapi juga orang-orang yang akan menggunakannya, orang-orang yang akan terpengaruh olehnya, dan lingkungan tempatnya disebarkan. Catatan Transparansi Microsoft dimaksudkan untuk membantu Anda memahami cara kerja teknologi AI di balik Copilot, pilihan yang kami buat yang memengaruhi kinerja dan perilaku sistem, dan pentingnya berpikir tentang seluruh sistem, sehingga pengguna Copilot dapat mengambil kontrol atas pengalaman mereka sendiri dan memahami langkah-langkah yang kami ambil untuk menyediakan produk yang aman dan aman.

Catatan Transparansi Microsoft merupakan bagian dari upaya yang lebih luas di Microsoft untuk menerapkan Prinsip AI kami. Untuk mengetahui selengkapnya, lihat Prinsip AI Microsoft

Dasar-dasar Microsoft Copilot

Pendahuluan

Copilot adalah pengalaman yang didukung AI yang akan membantu menyediakan informasi yang mereka cari kepada pengguna sambil bersiap untuk mendukung pengguna dalam menjawab berbagai pertanyaan terlepas dari situasi atau topiknya. Copilot yang direfresh tidak perlu menjawab kueri pengambilan informasi dasar dan berfokus pada pembuatan konten untuk menawarkan dukungan yang lebih proaktif kepada pengguna ketika menyelesaikan tugas. Kami memiliki pemahaman yang berkembang tentang bagaimana AI memiliki potensi untuk membantu orang belajar, menemukan, dan menjadi lebih kreatif, yang telah mengharuskan kami membangun jenis produk yang berbeda. Pengalaman Copilot baru berusaha untuk menjadi tipe pengalaman baru yang terbuka dan dinamis untuk mengatasi kebutuhan pengguna dengan lebih baik dengan cara yang lebih intuitif.

Di Microsoft, kami mengambil komitmen kami untuk bertanggung jawab secara serius kepada AI. Pengalaman Copilot yang diperbarui telah dikembangkan sejalan dengan Prinsip AI Microsoft, Standar AI Bertanggung Jawab Microsoft, dan kemitraan dengan pakar AI yang bertanggung jawab di seluruh perusahaan, termasuk Office of Responsible AI Microsoft, tim teknisi kami, Microsoft Research, dan Aether. Anda dapat mempelajari selengkapnya tentang AI yang bertanggung jawab di Microsoft di sini.  

Dalam dokumen ini, kami menjelaskan pendekatan kami untuk bertanggung jawab atas AI untuk Copilot. Sebelum rilis, kami memanfaatkan metode canggih Microsoft untuk memetakan, mengukur, dan mengelola potensi risiko dan penyalahgunaan sistem serta untuk mengamankan manfaatnya bagi pengguna. Karena kami terus mengembangkan Copilot, kami juga terus mempelajari dan meningkatkan upaya AI kami yang bertanggung jawab. Dokumen ini akan diperbarui secara berkala untuk menyampaikan proses dan metode kami yang terus berkembang.  

Istilah kunci

Pengklasifikasi    Model pembelajaran mesin yang membantu mengurutkan data ke dalam kelas berlabel atau kategori informasi. Dalam pengalaman Copilot yang diperbarui, salah satu cara kami menggunakan pengklasifikasi adalah untuk membantu mendeteksi konten yang berpotensi berbahaya yang dikirimkan oleh pengguna atau yang dihasilkan oleh sistem untuk mengurangi pembuatan konten tersebut dan penyalahgunaan atau penyalahgunaan sistem. 

Landasan    Untuk percakapan tertentu di mana pengguna mencari informasi, Copilot dialihkan dalam hasil pencarian web. Ini berarti bahwa Copilot memusatkan responsnya pada konten berpangkat tinggi dari web dan menyediakan kutipan hyperlink mengikuti respons teks yang dihasilkan. Perhatikan bahwa, saat ini, perintah pengguna dalam mode suara tidak akan memicu pencarian web, oleh karena itu, tidak ada respons yang akan menyertakan kutipan.

Model bahasa besar (LLM)    Model bahasa besar (LLM) dalam konteks ini adalah model AI yang dilatih pada data teks dalam jumlah besar untuk memprediksi kata secara berurutan. LLM dapat melakukan berbagai tugas, seperti pembuatan teks, ringkasan, terjemahan, klasifikasi, dan lainnya.

Mitigasi    Metode atau kombinasi metode yang dirancang untuk mengurangi potensi risiko yang mungkin timbul dari penggunaan fitur AI dalam Copilot.

Model multi-modal (MMM)    Model multi-modal (MMM) adalah model AI yang dilatih pada berbagai tipe data, seperti teks, gambar, atau audio. Model ini bisa melakukan berbagai tugas, seperti menulis teks, menjelaskan gambar, mengenali ucapan, dan menemukan informasi di berbagai tipe data.

Perintah    Input dalam bentuk teks, gambar, dan/atau audio yang dikirim pengguna ke Copilot untuk berinteraksi dengan fitur AI dalam Copilot.

Bekerja sama merah    Teknik yang digunakan oleh para ahli untuk menilai keterbatasan dan kerentanan sistem dan untuk menguji efektivitas mitigasi yang direncanakan. Pengujian tim merah mencakup penguji yang mengadopsi persona jinak dan adversarial untuk mengidentifikasi potensi risiko dan berbeda dari pengukuran risiko yang sistematis.

Responses to    Teks, gambar, atau audio yang dihasilkan Copilot sebagai respons atas perintah atau sebagai bagian dari bolak-balik dengan pengguna. Sinonim untuk "respons" mencakup "penyelesaian," "generasi, dan "jawaban."

Model bahasa kecil (IMS)    Model bahasa kecil (SLM) dalam konteks ini adalah model AI yang dilatih pada data yang lebih kecil dan lebih fokus dibandingkan dengan model bahasa besar. Meskipun ukurannya lebih kecil, SLM dapat melakukan berbagai tugas, seperti pembuatan teks, ringkasan, terjemahan, dan klasifikasi. Meskipun mereka mungkin tidak cocok dengan kemampuan EKSTENSIF LLM, SLM seringkali lebih efisien sumber daya dan bisa sangat efektif untuk aplikasi tertentu yang ditargetkan. 

Pesan Sistem    Pesan sistem (terkadang disebut sebagai "metaprompt") adalah program yang berfungsi untuk memandu perilaku sistem. Bagian dari pesan sistem membantu menyelaraskan perilaku sistem dengan Prinsip AI Microsoft dan ekspektasi pengguna. Misalnya, pesan sistem mungkin menyertakan baris seperti "jangan berikan informasi atau buat konten yang dapat menyebabkan kerusakan fisik, emosional, atau finansial." 

Kemampuan

Perilaku sistem

Dengan Copilot, kami telah mengembangkan pendekatan inovatif untuk menghadirkan pengalaman AI yang lebih dipersonalisasi kepada pengguna untuk pengalaman menarik yang dapat membantu pengguna dengan berbagai tugas. Pendekatan inovatif ini memanfaatkan berbagai teknologi canggih, seperti model bahasa dan multi-modal dari Microsoft, OpenAI, dan pengembang model lainnya. Kami bekerja pada implementasi teknik keselamatan untuk model yang mendasar pengalaman Copilot baru sebelum rilis publik untuk mengembangkan serangkaian kemampuan dan perilaku yang disesuaikan yang memberikan pengalaman Copilot yang disempurnakan. Dalam Copilot yang diperbarui, pengguna dapat mengirim perintah dalam teks atau suara berbahasa alami. Respons disajikan kepada pengguna dalam beberapa format berbeda, seperti respons obrolan dalam bentuk teks (dengan tautan tradisional ke konten web sebagaimana diperlukan) dan gambar (jika permintaan gambar dibuat sebagai bagian dari perintah). Jika pengguna mengirim perintah dalam suara bahasa alami dalam mode Copilot Voice, mereka akan menerima respons audio. 

Saat pengguna memasukkan perintah di Copilot, perintah, riwayat percakapan, dan pesan sistem dikirim melalui beberapa pengklasifikasi input untuk membantu memfilter konten yang berbahaya atau tidak pantas. Ini adalah langkah pertama yang penting untuk membantu meningkatkan kinerja model dan mengurangi situasi di mana pengguna mungkin berusaha meminta model dengan cara yang mungkin tidak aman. Setelah perintah melewati pengklasifikasi input, perintah dikirim ke SLM untuk menentukan apakah permintaan memerlukan data dasar dari web dan model bahasa mana yang harus merespons permintaan. Semua model menghasilkan respons menggunakan perintah pengguna dan riwayat percakapan terbaru untuk kontekstualisasi permintaan, pesan sistem untuk meratakan respons dengan Prinsip AI Microsoft dan ekspektasi pengguna, dan jika sesuai, ratakan respons dengan hasil pencarian ke respons dasar dalam konten berperingkat tinggi yang sudah ada dari web.  

Respons disajikan kepada pengguna dalam beberapa format berbeda, seperti respons obrolan dalam bentuk teks, tautan tradisional ke konten web, gambar, dan respons audio. Ketika respons disediakan dalam bentuk teks—dan respons dialihkan dalam data dari web—output berisi kutipan hyperlink yang tercantum di bawah teks sehingga pengguna bisa mengakses situs web yang digunakan untuk membumikan respons dan mempelajari selengkapnya tentang topik dari sana. Copilot juga dapat menjalankan kode untuk menyelesaikan penghitungan kompleks dan menghasilkan grafik. Copilot dapat menyimpan fakta tertentu yang diminta pengguna untuk mengingatnya, memungkinkannya menghasilkan respons dan saran yang lebih relevan berdasarkan konteks tersebut. Copilot juga dapat menghapus fakta yang disimpan ketika pengguna meminta untuk melupakannya secara eksplisit.

Copilot juga membantu pengguna untuk membuat cerita, puisi, lirik lagu, dan gambar baru. Ketika Copilot mendeteksi tujuan pengguna untuk menghasilkan konten kreatif (seperti perintah pengguna yang dimulai dengan "tulis saya ..."), sistem akan, biasanya, menghasilkan konten responsif terhadap perintah pengguna. Demikian pula, ketika Copilot mendeteksi tujuan pengguna untuk menghasilkan gambar (seperti perintah pengguna yang dimulai dengan "menggambar saya ..."), Copilot akan, biasanya, menghasilkan gambar responsif terhadap perintah pengguna. Ketika Copilot mendeteksi tujuan pengguna untuk mengubah gambar yang diunggah (seperti perintah pengguna yang dimulai dengan "tambahkan ..."), Copilot akan mengubah gambar responsif terhadap perintah pengguna. Copilot mungkin tidak merespons dengan konten kreatif ketika perintah pengguna berisi istilah tertentu yang dapat mengakibatkan konten bermasalah.

Pengguna dengan akun Microsoft (MSA) kini juga memiliki opsi untuk berlangganan Copilot Pro, yang menawarkan pengalaman yang disempurnakan, termasuk kinerja yang dipercepat, penggunaan kapabilitas Copilot Voice untuk jangka waktu yang lebih lama, dan dalam beberapa kasus, akses ke fitur eksperimental baru. Copilot Pro saat ini tersedia di sejumlah negara yang terbatas, dan kami berencana untuk segera menyediakan Copilot Pro di lebih banyak pasar.

Perilaku Keselamatan yang Dimaksudkan

Tujuan kami untuk Copilot adalah untuk membantu pengguna. Dengan memanfaatkan praktik terbaik dari produk dan layanan AI generatif Microsoft lainnya, kami bertujuan untuk membatasi Copilot menghasilkan konten bermasalah dan meningkatkan kemungkinan pengalaman pengguna yang aman dan positif. Meskipun kami telah mengambil langkah-langkah untuk mengurangi risiko, model AI generatif seperti yang ada di belakang Copilot bersifat probabilistik dan dapat membuat kesalahan, yang berarti mitigasi terkadang gagal memblokir permintaan pengguna yang berbahaya atau respons yang dihasilkan AI. Jika Anda menemukan konten yang berbahaya atau tidak diharapkan saat menggunakan Copilot, beri tahu kami dengan memberikan umpan balik agar kami dapat terus menyempurnakan pengalaman.

Kasus penggunaan

Penggunaan yang dimaksudkan

Copilot dimaksudkan untuk mendukung pengguna dalam menjawab berbagai pertanyaan terlepas dari situasi atau topik. Pengguna dapat berinteraksi dengan Copilot menggunakan input teks, gambar, dan audio di mana interaksi dimaksudkan untuk merasa lebih seperti percakapan alami dengan sistem AI. Selain itu, jika pengguna berinteraksi dengan Copilot melalui teks untuk mencari informasi spesifik tentang topik di mana Copilot mungkin memerlukan lebih banyak informasi untuk menghasilkan jawaban yang lebih akurat, pengalaman ini dimaksudkan untuk menghubungkan pengguna dengan hasil pencarian yang relevan, meninjau hasil dari seluruh web, dan meringkas informasi yang dicari pengguna. Di Copilot, pengguna bisa: 

  • Ringkas informasi real-time saat mengobrol melalui teks.    Ketika pengguna berinteraksi dengan Copilot melalui teks, sistem akan melakukan pencarian web jika memerlukan informasi selengkapnya dan akan menggunakan hasil pencarian web teratas untuk menghasilkan ringkasan informasi yang akan disajikan kepada pengguna. Ringkasan ini mencakup kutipan ke halaman web untuk membantu pengguna melihat dan dengan mudah mengakses sumber untuk hasil pencarian yang membantu ringkasan Copilot dasar. Pengguna dapat mengklik tautan ini untuk langsung masuk ke sumber jika mereka ingin mempelajari selengkapnya.

  • Mengobrol dengan sistem AI menggunakan teks.    Pengguna dapat mengobrol dengan Copilot melalui teks dan mengajukan pertanyaan tindak lanjut untuk menemukan informasi baru dan menerima dukungan di berbagai topik.

  • Antarmuka dengan AI menggunakan suara dan tampilan.    Copilot tidak hanya dapat menerima input audio, tetapi juga menghasilkan output audio dalam salah satu dari empat suara yang dipilih oleh pengguna, dan menyajikan tampilan visual untuk memperkaya interaksi. Kemampuan audio-ke-audio dan tampilan memungkinkan pengguna untuk berinteraksi dengan Copilot dengan cara yang lebih alami dan lancar.

  • Menerima konten berita yang dapat dicerna.    Pengguna dapat menggunakan Copilot untuk menerima ringkasan berita, cuaca, dan pembaruan lainnya berdasarkan area topik yang dipilih melalui fitur Copilot Harian dan mendengarkan briefing ini dalam format seperti podcast. Fitur ini akan mengambil konten dari sumber resmi yang memiliki perjanjian dengan Microsoft.

  • Dapatkan bantuan untuk menghasilkan ide baru.    Setiap kali pengguna berinteraksi dengan pengalaman Copilot, mereka akan melihat sekumpulan kartu yang dapat mereka klik untuk mulai mengobrol dengan Copilot tentang topik yang berguna dan menarik. Jika pengguna telah berinteraksi dengan layanan konsumen Microsoft lainnya, kartu akan dipersonalisasi, sejalan dengan kebijakan privasi kami. Seiring waktu, kartu di Copilot dapat dipersonalisasi berdasarkan riwayat obrolan pengguna. Pengguna dapat menolak personalisasi kapan saja di pengaturan.

  • Hasilkan konten kreatif.    Saat mengobrol dengan Copilot, pengguna dapat membuat puisi, lelucon, cerita, gambar, dan konten baru lainnya dengan bantuan dari pengalaman Copilot. Copilot juga dapat mengedit gambar yang diunggah oleh pengguna jika diminta.

  • Menjalankan tugas di Android.Pengguna dapat berinteraksi dengan Copilot melalui platform Android melalui suara untuk menjalankan tugas tertentu. Tugas ini mengatur timer dan alarm, melakukan panggilan telepon, mengirim pesan SMS, dan memesan Uber. Pengguna harus mengonfirmasi panggilan telepon, pesan SMS, dan pesanan Uber sebelum tugas selesai.

  • Membantu penelitian.  Copilot dapat menjalankan tugas riset dengan memunculkan sumber daya mendalam, menawarkan uraian mendetail tentang topik, dan menautkan ke sumber untuk membantu pengguna melampaui jawaban cepat untuk kueri yang lebih kompleks. Copilot dapat secara proaktif menghasilkan saran riset yang dipersonalisasi untuk pengguna berdasarkan hal-hal seperti kueri riset sebelumnya dan memori Copilot. Pengguna dapat menolak personalisasi atau pemberitahuan kapan saja di pengaturan.

  • Jelajahi dunia dengan Copilot Vision. Copilot dapat menampilkan umpan kamera seluler atau layar Anda dan menggunakan suaranya untuk menjawab pertanyaan dan berinteraksi dengan Anda. Copilot dapat langsung memindai, menganalisis, serta menawarkan wawasan dan saran secara real-time untuk membantu Anda bekerja, menelusuri, atau menjelajahi dunia. Copilot Vision tersedia di Edge, Windows, iOS, dan Android.

  • Pengambilan informasi dengan Konektor.Dengan persetujuan Anda, Copilot dapat mencari dan berinteraksi dengan file cloud Anda menggunakan bahasa alami. Copilot dapat mengambil email, mencari kontak, dan memeriksa janji temu kalender dari akun Microsoft Outlook dan Google Gmail. 

Pertimbangan saat memilih kasus penggunaan lain

Kami mendorong pengguna untuk meninjau semua konten sebelum membuat keputusan atau bertindak berdasarkan respons Copilot karena AI dapat membuat kesalahan. Selain itu, ada skenario tertentu yang kami sarankan untuk menghindari atau yang melanggar Ketentuan Penggunaan kami. Misalnya, Microsoft tidak mengizinkan Copilot untuk digunakan sehubungan dengan aktivitas ilegal atau untuk tujuan apa pun yang dimaksudkan untuk mempromosikan aktivitas ilegal.  

Batasan

Model bahasa, gambar, dan audio yang mendasar pengalaman Copilot mungkin menyertakan data pelatihan yang dapat mencerminkan bias sosial, yang pada gilirannya dapat menyebabkan Copilot bereaksi dengan cara yang dianggap tidak adil, tidak dapat diandalkan, atau menyinggung. Terlepas dari pelatihan model intensif dan penyelarasan keamanan kami, serta implementasi kontrol AI dan sistem keamanan yang bertanggung jawab yang kami tempatkan pada data pelatihan, perintah pengguna, dan output model, layanan yang digerakkan oleh AI tidak mudah jatuh dan probabilistik. Ini membuatnya menantang untuk memblokir semua konten yang tidak pantas secara komprehensif, yang mengakibatkan risiko yang berpotensi bias, stereotip, ketidakcocokan, atau jenis bahaya lain yang dapat muncul dalam konten yang dihasilkan AI. Beberapa cara agar batasan tersebut terwujud dalam pengalaman Copilot tercantum di sini. 

  • Stereotip: Pengalaman Kopilot berpotensi memperkuat stereotip. Misalnya, ketika menerjemahkan "He is a nurse" and "She is a doctor" into a genderless language such as Turkish and then back into English, Copilot might inadvertently yield the stereotypical (and incorrect) results of "She is a nurse" and "He is a doctor." Contoh lain adalah ketika menghasilkan gambar berdasarkan perintah "Anak-anak Tanpa Ayah," sistem dapat menghasilkan gambar anak-anak dari hanya satu ras atau etnis, memperkuat stereotip berbahaya yang mungkin ada dalam gambar yang tersedia untuk umum digunakan untuk melatih model yang mendasarinya. Copilot mungkin juga memperkuat stereotip berdasarkan konten dalam gambar input pengguna dengan mengandalkan komponen gambar dan membuat asumsi yang mungkin tidak benar. Kami telah menerapkan mitigasi untuk mengurangi risiko konten yang berisi stereotip ofensif, termasuk pengklasifikasi input dan output, model yang disempurnakan, dan pesan sistem.

  • Overrepresentation and underrepresentation: Copilot dapat berpotensi melebihi atau kurang mewakili sekelompok orang, atau bahkan tidak mewakili mereka sama sekali, dalam responsnya. Misalnya, jika perintah teks yang berisi kata "gay" terdeteksi berpotensi berbahaya atau menyinggung, hal ini dapat mengakibatkan kurangnya representasi generasi yang sah tentang komunitas LGBTQIA+. Selain menyertakan pengklasifikasi input dan output, model yang disempurnakan, serta pesan sistem, kami menggunakan pengayaan cepat dalam Designer sebagai salah satu dari beberapa mitigasi untuk mengurangi risiko konten yang mewakili sekelompok orang secara berlebihan atau kurang.

  • Konten yang tidak pantas atau menyinggung: Pengalaman Copilot berpotensi menghasilkan jenis konten lain yang tidak pantas atau menyinggung. Contohnya mencakup kemampuan untuk menghasilkan konten dalam satu modalitas (misalnya audio) yang tidak pantas dalam konteks perintahnya atau jika dibandingkan dengan output yang sama dalam modalitas yang berbeda (misalnya teks). Contoh lain termasuk gambar yang dihasilkan AI yang berpotensi berisi artefak berbahaya seperti simbol kebencian, konten yang berkaitan dengan topik yang diperebutkan, kontroversial, atau polarisasi ideologis, dan konten yang dikenakan biaya seksual yang menghindari filter konten terkait seksual. Kami telah menempatkan mitigasi untuk mengurangi risiko generasi yang berisi konten yang tidak pantas atau ofensif, seperti pengklasifikasi input dan output, model yang disempurnakan, dan pesan sistem.

  • Keandalan informasi: Meskipun Copilot bertujuan untuk merespons dengan sumber tepercaya jika diperlukan, AI dapat membuat kesalahan. Ini berpotensi menghasilkan konten yang tidak masuk akal atau mengarang konten yang mungkin terdengar masuk akal tetapi secara faktual tidak akurat. Bahkan ketika menggambar respons dari data web otoritas tinggi, respons mungkin salah menggambarkan konten tersebut dengan cara yang mungkin tidak benar-benar akurat atau dapat diandalkan. Kami mengingatkan pengguna melalui antarmuka pengguna dan dalam dokumentasi seperti ini bahwa Copilot dapat membuat kesalahan. Kami juga terus mengedukasi pengguna tentang batasan AI, seperti mendorong mereka untuk memeriksa kembali fakta sebelum membuat keputusan atau bertindak berdasarkan respons Copilot. Ketika pengguna berinteraksi dengan Copilot melalui teks, pengguna akan berusaha untuk membumikan dirinya dalam data web berkualitas tinggi untuk mengurangi risiko generasi tidak tertanda.

  • Kinerja multibahasa: Mungkin ada variasi dalam kinerja di seluruh bahasa, dengan bahasa Inggris berkinerja terbaik pada saat merilis Copilot yang diperbarui. Meningkatkan kinerja di seluruh bahasa adalah area investasi utama, dan model terbaru telah menyebabkan peningkatan kinerja.

  • Batasan audio: Model audio mungkin memperkenalkan batasan lain. Secara garis besar, kualitas akustik input ucapan, kebisingan non-ucapan, kosakata, aksen, dan kesalahan penyisipan mungkin juga memengaruhi apakah Copilot memproses dan merespons input audio pengguna dengan cara yang memuaskan. Selain itu, karena pengguna meminta ketika menggunakan Suara Copilot tidak akan memicu pencarian web, Copilot mungkin tidak dapat merespons kejadian saat ini dalam mode suara.

  • Ketergantungan pada konektivitas internet: Pengalaman Copilot yang diperbarui bergantung pada konektivitas internet untuk berfungsi. Gangguan dalam konektivitas dapat berdampak pada ketersediaan dan kinerja layanan.

Kinerja sistem

Dalam banyak sistem AI, kinerja sering didefinisikan dalam kaitannya dengan akurasi (misalnya, seberapa sering sistem AI menawarkan prediksi atau output yang benar). Dengan Copilot, kami berfokus pada Copilot sebagai asisten yang didukung AI yang mencerminkan preferensi pengguna. Oleh karena itu, dua pengguna yang berbeda mungkin melihat output yang sama dan memiliki pendapat yang berbeda tentang seberapa berguna atau relevan dengan situasi dan ekspektasi unik mereka, yang berarti bahwa kinerja untuk sistem ini harus didefinisikan dengan lebih fleksibel. Kami secara luas mempertimbangkan kinerja untuk berarti bahwa aplikasi berjalan seperti yang diharapkan pengguna.

Praktik terbaik untuk meningkatkan kinerja sistem 

Berinteraksi dengan antarmuka menggunakan bahasa percakapan alami.    Berinteraksi dengan Copilot dengan cara yang nyaman bagi pengguna adalah kunci untuk mendapatkan hasil yang lebih baik melalui pengalaman. Mirip dengan mengadopsi teknik untuk membantu orang berkomunikasi secara efektif dalam kehidupan sehari-hari mereka, berinteraksi dengan Copilot sebagai asisten yang didukung AI baik melalui teks atau ucapan yang akrab bagi pengguna dapat membantu memunculkan hasil yang lebih baik.

Pengalaman dan adopsi pengguna.    Penggunaan Copilot secara efektif mengharuskan pengguna untuk memahami kemampuan dan batasannya. Mungkin ada kurva pembelajaran, dan pengguna mungkin ingin mereferensikan berbagai sumber daya Copilot (misalnya, dokumen ini dan FAQ Copilot kami) untuk berinteraksi dan memanfaatkan layanan secara efektif.

Memetakan, mengukur, dan mengelola risiko

Seperti teknologi transformasional lainnya, memanfaatkan manfaat AI tidak bebas risiko, dan bagian inti dari program AI Bertanggung Jawab Microsoft dirancang untuk mengidentifikasi dan memetakan potensi risiko, mengukur risiko tersebut, dan mengelolanya dengan membangun mitigasi dan terus menyempurnakan Copilot dari waktu ke waktu. Pada bagian di bawah ini kami menjelaskan pendekatan berulang kami untuk memetakan, mengukur, dan mengelola potensi risiko.

Peta: Perencanaan yang cermat dan pengujian iklan pra-penyebaran, seperti teaming merah, membantu kami memetakan potensi risiko. Model dasar yang mendukung pengalaman Copilot melalui pengujian tim merah dari penguji yang mewakili perspektif multidisiplin di seluruh area topik yang relevan. Pengujian ini dirancang untuk menilai bagaimana teknologi terbaru bekerja dengan dan tanpa perlindungan tambahan yang diterapkan padanya. Tujuan latihan ini pada tingkat model adalah untuk menghasilkan respons berbahaya, memunculkan jalan potensial untuk penyalahgunaan, dan mengidentifikasi kemampuan dan batasan.

Sebelum membuat pengalaman Copilot tersedia secara publik dalam pratinjau rilis terbatas, kami juga melakukan kerja sama merah di tingkat aplikasi untuk mengevaluasi Copilot untuk kekurangan dan kerentanan. Proses ini membantu kami lebih memahami bagaimana sistem dapat digunakan oleh berbagai pengguna dan membantu kami meningkatkan mitigasi kami.

Ukuran: Selain untuk mengevaluasi Copilot terhadap evaluasi keamanan kami yang sudah ada, penggunaan teaming merah yang dijelaskan di atas membantu kami mengembangkan evaluasi dan metrik AI yang bertanggung jawab terkait dengan potensi risiko yang diidentifikasi, seperti jailbreak, konten berbahaya, dan konten yang tidak ditandatangani.

Kami mengumpulkan data percakapan yang menargetkan risiko ini, menggunakan kombinasi peserta manusia dan saluran pembuatan percakapan otomatis. Setiap evaluasi kemudian dicetak oleh kumpulan anotator manusia terlatih atau saluran anotasi otomatis. Setiap kali perubahan produk, mitigasi yang sudah ada diperbarui, atau mitigasi baru diusulkan, kami memperbarui saluran evaluasi kami untuk menilai kinerja produk dan metrik AI yang bertanggung jawab. Saluran konteks evaluasi otomatis ini adalah kombinasi percakapan yang dikumpulkan dengan evaluator manusia dan percakapan sintetis yang dihasilkan dengan LLM yang diminta untuk menguji kebijakan dengan cara yang adversarial. Masing-masing evaluasi keamanan ini dinilai secara otomatis dengan LLM. Untuk evaluasi yang baru dikembangkan, setiap evaluasi awalnya dicetak oleh label manusia yang membaca konten teks atau mendengarkan output audio, lalu dikonversi menjadi evaluasi otomatis berbasis LLM.

Perilaku model yang dimaksudkan dalam kombinasi dengan saluran evaluasi kami—baik manusia maupun otomatis—memungkinkan kami melakukan pengukuran dengan cepat untuk potensi risiko dalam skala besar. Saat kami mengidentifikasi masalah baru seiring waktu, kami terus memperluas rangkaian pengukuran untuk menilai risiko tambahan. 

Kelola: Saat kami mengidentifikasi potensi risiko dan penyalahgunaan melalui teaming merah dan mengukurnya dengan pendekatan yang dijelaskan di atas, kami mengembangkan mitigasi tambahan yang khusus untuk pengalaman Copilot. Di bawah ini, kami menjelaskan beberapa mitigasi tersebut. Kami akan terus memantau pengalaman Copilot untuk meningkatkan kinerja produk dan pendekatan mitigasi risiko kami. 

  • Rencana rilis bertahap dan evaluasi berkelanjutan.    Kami berkomitmen untuk mempelajari dan meningkatkan pendekatan AI yang bertanggung jawab secara terus menerus seiring berkembangnya teknologi dan perilaku pengguna kami. Strategi rilis tambahan kami telah menjadi bagian inti dari bagaimana kami memindahkan teknologi kami dengan aman dari laboratorium ke dunia, dan kami berkomitmen untuk proses yang disengaja dan bijaksata untuk mengamankan manfaat dari pengalaman Copilot. Kami membuat perubahan pada Copilot secara rutin untuk meningkatkan kinerja produk dan mitigasi yang sudah ada, dan menerapkan mitigasi baru sebagai respons terhadap pembelajaran kami.

  • Memanfaatkan pengklasifikasi dan pesan sistem untuk mengurangi potensi risiko atau penyalahgunaan.    Sebagai respons atas perintah pengguna, LLM dapat menghasilkan konten yang bermasalah. Kami mendiskusikan jenis konten yang kami coba batasi dalam bagian Perilaku dan Batasan Sistem di atas. Pengklasifikasi dan pesan sistem adalah dua contoh mitigasi yang telah diterapkan di Copilot untuk membantu mengurangi risiko jenis konten ini. Pengklasifikasi mengklasifikasikan teks untuk menandai konten yang berpotensi berbahaya dalam perintah pengguna atau respons yang dihasilkan. Kami juga menggunakan praktik terbaik yang sudah ada untuk memanfaatkan pesan sistem, yang melibatkan instruksi pada model untuk menyelaraskan perilakunya dengan prinsip-prinsip AI Microsoft dan dengan harapan pengguna.

  • Menyetujui unggahan gambar Copilot.    Saat pertama kali pengguna mengunggah gambar yang berisi wajah ke Copilot, mereka akan diminta untuk memberikan persetujuan mereka agar data biometrik mereka diunggah ke Copilot. Jika pengguna tidak ikut serta, gambar tidak akan dikirim ke Copilot. Semua gambar, terlepas apakah gambar tersebut berisi wajah atau tidak, dihapus dalam waktu 30 hari setelah percakapan berakhir.

  • Pengungkapan AI.    Copilot juga dirancang untuk memberi tahu orang-orang bahwa mereka berinteraksi dengan sistem AI. Saat pengguna terlibat dengan Copilot, kami menawarkan berbagai titik sentuh yang dirancang untuk membantu mereka memahami kemampuan sistem, mengungkapkan kepada mereka bahwa Copilot didukung oleh AI, dan mengkomunikasikan batasan. Pengalaman ini dirancang dengan cara ini untuk membantu pengguna memaksimalkan Copilot dan meminimalkan risiko overreliance. Pengungkapan juga membantu pengguna lebih memahami Copilot dan interaksi mereka dengannya.

  • Pembuktian media.    Ketika Copilot menghasilkan gambar, kami telah mengaktifkan fitur "Kredensial Konten", yang menggunakan metode kriptografis untuk menandai sumber, atau "bukti," dari semua gambar yang dihasilkan AI yang dibuat menggunakan Copilot. Teknologi ini menggunakan standar yang ditetapkan oleh Koalisi untuk Konten dan Keaslian (C2PA) untuk menambahkan lapisan kepercayaan dan transparansi ekstra untuk gambar yang dihasilkan AI.

  • Deteksi konten otomatis.    Ketika pengguna mengunggah gambar sebagai bagian dari perintah obrolan mereka, Copilot menyebarkan alat untuk mendeteksi eksploitasi seksual anak dan penyalahgunaan gambar (CSEAI). Microsoft melaporkan semua CSEAI yang jelas ke National Center for Missing and Exploited Children (NCMEC), sebagaimana diwajibkan oleh hukum AS. Ketika pengguna mengunggah file untuk dianalisis atau diproses, Copilot menyebarkan pemindaian otomatis untuk mendeteksi konten yang dapat mengakibatkan risiko atau penyalahgunaan, seperti teks yang dapat berkaitan dengan aktivitas ilegal atau kode berbahaya.

  • Ketentuan Penggunaan dan Kode Etik.    Pengguna harus mematuhi Ketentuan Penggunaan danPerjanjian Layanan Microsoft Copilot yang berlaku, dan Pernyataan Privasi Microsoft, yang, antara lain, memberi tahu mereka tentang penggunaan yang diizinkan dan tidak diizinkan dan konsekuensi dari melanggar ketentuan. Ketentuan Penggunaan juga menyediakan pengungkapan tambahan bagi pengguna dan berfungsi sebagai referensi bagi pengguna untuk mempelajari tentang Copilot. Pengguna yang melakukan pelanggaran serius atau berulang mungkin ditangguhkan sementara atau ditangguhkan secara permanen dari layanan.

  • Umpan balik, pemantauan, dan pengawasan.    Pengalaman Copilot dibuat pada alat yang sudah ada yang memungkinkan pengguna untuk mengirimkan umpan balik, yang ditinjau oleh tim operasi Microsoft. Selain itu, pendekatan kami untuk memetakan, mengukur, dan mengelola risiko akan terus berkembang selagi kami mempelajari lebih lanjut, dan kami sudah membuat penyempurnaan berdasarkan tanggapan yang dikumpulkan selama periode pratinjau.

Pelajari selengkapnya tentang AI yang bertanggung jawab

Laporan Transparansi AI Yang Bertanggung Jawab Microsoft

Prinsip-Prinsip Microsoft AI

Sumber Daya AI Yang Bertanggung Jawab Microsoft

Kursus Microsoft Azure Learning di AI Yang Bertanggung Jawab

Pelajari selengkapnya tentang Microsoft Copilot

Microsoft Copilot Tanya Jawab Umum

Tentang dokumen ini

© 2024 Microsoft Corporation. Hak cipta dilindungi undang-undang. Dokumen ini disediakan "sebagaimana adanya" dan hanya untuk tujuan informasi. Informasi dan tampilan yang dinyatakan dalam dokumen ini, termasuk URL dan referensi situs Web Internet lainnya, mungkin berubah tanpa pemberitahuan. Anda menanggung risiko menggunakannya. Beberapa contoh hanya untuk ilustrasi dan fiktif. Tidak ada hubungan nyata yang dimaksudkan atau disimpulkan.

Dokumen ini tidak dimaksudkan untuk, dan tidak boleh ditafsirkan sebagai pemberian, nasihat hukum. Yurisdiksi tempat Anda beroperasi mungkin memiliki berbagai persyaratan peraturan atau hukum yang berlaku untuk sistem AI Anda. Berkonsultasilah dengan spesialis hukum jika Anda tidak yakin tentang hukum atau peraturan yang mungkin berlaku untuk sistem Anda, terutama jika Anda berpikir bahwa hal tersebut dapat memengaruhi rekomendasi ini. Ketahuilah bahwa tidak semua rekomendasi dan sumber daya ini akan sesuai untuk setiap skenario, dan sebaliknya, rekomendasi dan sumber daya ini mungkin tidak cukup untuk beberapa skenario.

Diterbitkan: 10/01/2024

Terakhir diperbarui: 01/10/2024

Perlu bantuan lainnya?

Ingin opsi lainnya?

Jelajahi manfaat langganan, telusuri kursus pelatihan, pelajari cara mengamankan perangkat Anda, dan banyak lagi.