Son güncelleştirme: Eylül 2025

Saydamlık Notu nedir?

Yapay zeka sistemi yalnızca teknolojiyi değil, onu kullanacak kişileri, etkilenecek kişileri ve dağıtıldığı ortamı içerir. Microsoft'un Şeffaflık Notları, Copilot'un arkasındaki yapay zeka teknolojisinin nasıl çalıştığını, sistemin performansını ve davranışını etkileyen seçimleri ve tüm sistem hakkında düşünmenin önemini anlamanıza yardımcı olmak için tasarlanmıştır. Böylece Copilot kullanıcıları kendi deneyimlerinin denetimini alabilir ve güvenli ve güvenli bir ürün sağlamak için attığımız adımları anlayabilir.

Microsoft'un Saydamlık Notları, Microsoft'un yapay zeka İlkelerimizi uygulamaya koymaya yönelik daha geniş bir çabanın bir parçasıdır. Daha fazla bilgi edinmek için bkz. Microsoft Yapay Zeka İlkeleri

Microsoft Copilot temelleri

Giriş

Copilot, kullanıcılara durum veya konu ne olursa olsun çok çeşitli soruları yanıtlama konusunda destek olmaya hazırlanırken aradıkları bilgileri sağlamaya yardımcı olacak yapay zeka destekli bir deneyimdir. Yenilenen Copilot, temel bilgi alma sorgularını yanıtlamanın ötesine geçer ve görevleri tamamlarken kullanıcılara daha proaktif destek sunmak için içerik oluşturmaya odaklanır. Yapay zekanın insanların öğrenmesine, keşfetmesine ve daha yaratıcı olmasına nasıl yardımcı olma potansiyeline sahip olduğunu giderek daha iyi anlıyoruz ve bu da farklı bir ürün türü oluşturmamızı gerektiriyor. Yeni Copilot deneyimi, kullanıcı ihtiyaçlarını daha sezgisel bir şekilde daha iyi ele almak için açık uçlu ve dinamik yeni bir deneyim türü olmayı hedeflemektedir.

Microsoft olarak sorumlu yapay zeka taahhüdümüzü ciddiye alıyoruz. Güncelleştirilmiş Copilot deneyimi Microsoft'un Yapay Zeka İlkeleri, Microsoft'un Sorumlu Yapay Zeka Standardı ve Microsoft'un Sorumlu Yapay Zeka Ofisi, mühendislik ekiplerimiz, Microsoft Research ve Aether gibi şirket genelinde sorumlu yapay zeka uzmanlarıyla ortaklık içinde geliştirilmiştir. Microsoft'ta sorumlu yapay zeka hakkında daha fazla bilgiyi burada bulabilirsiniz.  

Bu belgede, Copilot için sorumlu yapay zeka yaklaşımımızı açıklıyoruz. Kullanıma sunmadan önce, microsoft'un olası riskleri ve sistemin kötüye kullanımını eşlemek, ölçmek ve yönetmek ve kullanıcılar için avantajlarını güvence altına almak için en son yöntemlerden yararlandık. Copilot'ı geliştirmeye devam ettikçe, sorumlu yapay zeka çalışmalarımızı da öğrenmeye ve geliştirmeye devam ettik. Bu belge, gelişen süreçlerimizi ve yöntemlerimizi iletmek için düzenli aralıklarla güncelleştirilir.  

Önemli terimler

Sınıflandırıcı    Verileri etiketli sınıflara veya bilgi kategorilerine göre sıralamaya yardımcı olan makine öğrenmesi modelleri. Güncelleştirilmiş Copilot deneyiminde sınıflandırıcıları kullanma yollarından biri, kullanıcılar tarafından gönderilen veya sistem tarafından oluşturulan zararlı olabilecek içerikleri algılamaya yardımcı olmak ve bu içeriğin oluşturulmasını ve sistemin kötüye kullanılmasını veya kötüye kullanılmasını azaltmaktır. 

Topraklama    Kullanıcıların bilgi aradığı belirli konuşmalar için Copilot, web arama sonuçlarında temellenir. Bu, Copilot'un yanıtı web'den yüksek derecelendirmeli içeriğe ortalandığı ve oluşturulan metin yanıtlarının ardından köprülü alıntılar sağladığı anlamına gelir. Şu anda ses modundaki kullanıcı istemlerinin bir web araması tetiklemeyeceğini, bu nedenle hiçbir yanıtın alıntı içermeyeceğini unutmayın.

Büyük dil modelleri (LLM' ler)    Bu bağlamdaki büyük dil modelleri (LLM' ler), dizilerdeki sözcükleri tahmin etmek için büyük miktarda metin verisi üzerinde eğitilen yapay zeka modelleridir. LLM'ler metin oluşturma, özetleme, çeviri, sınıflandırma ve daha fazlası gibi çeşitli görevleri gerçekleştirebilir.

Azaltma    Copilot'ta yapay zeka özelliklerinin kullanılmasıyla ortaya çıkabilecek olası riskleri azaltmak için tasarlanmış bir yöntem veya yöntem birleşimi.

Çok modaliteli modeller (MMM)    Çok modaliteli modeller (MMM) metin, görüntü veya ses gibi farklı veri türleri üzerinde eğitilen yapay zeka modelleridir. Bu modeller metin yazma, görüntüleri açıklama, konuşmayı tanıma ve farklı veri türleri arasında bilgi bulma gibi çeşitli görevler gerçekleştirebilir.

İstemler    Kullanıcının Copilot içindeki yapay zeka özellikleriyle etkileşim kurmak için Copilot'a gönderdiği metin, görüntü ve/veya ses biçiminde girişler.

Kırmızı ekip oluşturma    Bir sistemin sınırlamalarını ve güvenlik açıklarını değerlendirmek ve planlı risk azaltmaların etkinliğini test etmek için uzmanlar tarafından kullanılan teknikler. Kırmızı takım testi, olası riskleri belirlemek için hem zararsız hem de saldırgan kişilikleri benimseyen test edicileri içerir ve risklerin sistematik ölçümünden farklıdır.

Yanıt    Copilot'un bir isteme yanıt olarak veya kullanıcıyla birlikte ileri geri çıkış olarak verdiği metin, resim veya ses. "Yanıt" için eş anlamlılar "tamamlama", "oluşturma ve "yanıt" ifadelerini içerir.

Küçük dil modelleri (SLM' ler)    Bu bağlamda küçük dil modelleri (SLM' ler), büyük dil modellerine kıyasla daha küçük ve daha odaklanmış veri miktarı üzerinde eğitilen yapay zeka modelleridir. Daha küçük boyutlarına rağmen, SLM'ler metin oluşturma, özetleme, çeviri ve sınıflandırma gibi çeşitli görevleri gerçekleştirebilir. LLM'lerin kapsamlı özellikleriyle eşleşmese de, SLM'ler genellikle daha verimli kaynak kullanır ve belirli, hedeflenen uygulamalar için son derece etkili olabilir. 

Sistem İletisi    Sistem iletisi (bazen "metaprompt" olarak da adlandırılır), sistemin davranışını yönlendirmeye hizmet eden bir programdır. Sistem iletisinin bölümleri, sistem davranışını Microsoft AI İlkeleri ve kullanıcı beklentileriyle uyumlu hale getirmeye yardımcı olur. Örneğin, sistem iletisi "bilgi sağlama veya fiziksel, duygusal veya finansal zarara neden olabilecek içerik oluşturma" gibi bir satır içerebilir. 

Özellikler

Sistem davranışı

Copilot ile, kullanıcılara çeşitli görevlerde yardımcı olabilecek ilgi çekici bir deneyim için kullanıcılara daha kişiselleştirilmiş bir yapay zeka deneyimi sunmak için yenilikçi bir yaklaşım geliştirdik. Bu yenilikçi yaklaşım, Microsoft, OpenAI ve diğer model geliştiricilerinin dil ve çok kalıcı modelleri gibi çeşitli gelişmiş teknolojilerden yararlanıyor. Genel kullanıma sunmadan önce yeni Copilot deneyimini temel alan modellere yönelik güvenlik tekniklerinin uygulanması üzerinde çalışarak gelişmiş bir Copilot deneyimi sağlayan özelleştirilmiş bir özellik ve davranış kümesi geliştirdik. Güncelleştirilmiş Copilot'ta kullanıcılar doğal dil metni veya sesiyle istem gönderebilir. Yanıtlar, kullanıcılara metin biçimindeki sohbet yanıtları (gerektiğinde web içeriğine geleneksel bağlantılar içeren) ve resimler (istem kapsamında bir görüntü isteği yapıldıysa) gibi çeşitli biçimlerde sunulur. Kullanıcılar Copilot Ses modunda doğal dil sesinde istem gönderirse, sesli yanıtlar alırlar. 

Kullanıcı Copilot'ta bir istem girdiğinde, komut istemi, konuşma geçmişi ve sistem iletisi, zararlı veya uygunsuz içeriği filtrelemeye yardımcı olmak için çeşitli giriş sınıflandırıcıları aracılığıyla gönderilir. Bu, model performansını artırmaya ve kullanıcıların modeli güvenli olmayan bir şekilde istemeye çalışabilecekleri durumları azaltmaya yardımcı olmak için önemli bir ilk adımdır. İstem giriş sınıflandırıcılarından geçtikten sonra bir SLM'ye gönderilerek isteğin web'den veri temel alması gerekip gerekmediğini ve isteğe hangi dil modelinin yanıt vermesi gerektiğini belirler. Tüm modeller, isteği bağlamsal hale getirmek için kullanıcının istemini ve son konuşma geçmişini, yanıtları Microsoft AI İlkeleri ve kullanıcı beklentileriyle uyumlu hale getirmek için sistem iletisini ve uygunsa yanıtları arama sonuçlarıyla web'den gelen mevcut, yüksek derecelendirmeli içerikteki temel yanıtlara hizalayarak bir yanıt oluşturur.  

Yanıtlar, kullanıcılara metin biçimindeki sohbet yanıtları, geleneksel web içeriği bağlantıları, resimler ve ses yanıtları gibi çeşitli biçimlerde sunulur. Yanıtlar metin biçiminde sağlandığında ve yanıtlar web'den alınan verilere dayandırıldığında çıkış, kullanıcıların yanıtı temel almak ve konu hakkında daha fazla bilgi edinmek için kullanılan web sitelerine erişebilmesi için metnin altında listelenen köprülenmiş alıntılar içerir. Copilot ayrıca karmaşık hesaplamaları tamamlamak ve grafikler oluşturmak için kod çalıştırabilir. Copilot, kullanıcıların hatırlamasını istediği belirli olguları depolayabilir ve bu sayede söz konusu bağlama göre daha ilgili yanıtlar ve öneriler oluşturabilir. Copilot, kullanıcılar bunları açıkça unutmayı sorduğunda kaydedilen olguları da silebilir.

Copilot ayrıca kullanıcıların yeni hikayeler, şiirler, şarkı sözleri ve görüntüler oluşturmasına da yardımcı olur. Copilot, yaratıcı içerik oluşturmak için kullanıcı amacını algıladığında (örneğin, "bana bir ...yaz" ile başlayan bir kullanıcı istemi gibi), sistem çoğu durumda kullanıcının istemine yanıt veren içerik oluşturur. Benzer şekilde, Copilot bir görüntü oluşturmak için kullanıcı amacını algıladığında (örneğin, "bana bir ...çiz" ile başlayan bir kullanıcı istemi gibi), Copilot çoğu durumda kullanıcının istemine yanıt veren bir görüntü oluşturur. Copilot, karşıya yüklenen bir görüntüyü değiştirmek için kullanıcı amacını algıladığında ("...ekle" ile başlayan bir kullanıcı istemi gibi), Copilot çoğu durumda kullanıcının istemine yanıt veren bir görüntüyü değiştirir. Kullanıcı istemi sorunlu içeriğe neden olabilecek belirli terimler içerdiğinde Copilot yaratıcı içerikle yanıt vermeyebilir.

Microsoft hesapları (MSA) olan kullanıcıların artık Copilot Pro abone olma seçeneği de vardır. Bu seçenek hızlandırılmış performans, Copilot Voice özelliklerinin daha uzun süreler için kullanılması ve bazı durumlarda yeni, deneysel özelliklere erişim gibi gelişmiş bir deneyim sunar. Copilot Pro şu anda sınırlı sayıda ülkede kullanılabilir ve yakında Copilot Pro daha fazla pazarda kullanılabilir hale getirmeyi planlıyoruz.

Amaçlanan Güvenlik Davranışı

Copilot için hedefimiz kullanıcılara yardımcı olmaktır. Diğer Microsoft üretici yapay zeka ürün ve hizmetlerinin en iyi uygulamalarından yararlanarak, Copilot'un sorunlu içerik oluşturmasını sınırlamayı ve güvenli ve olumlu bir kullanıcı deneyimi olasılığını artırmayı amaçlıyoruz. Riskleri azaltmak için adımlar atmış olsak da, Copilot'un arkasındakiler gibi üretken yapay zeka modelleri olasılıktır ve hatalar yapabilir, yani azaltmalar bazen zararlı kullanıcı istemlerini veya yapay zeka tarafından oluşturulan yanıtları engelleyemeyebilir. Copilot kullanırken zararlı veya beklenmeyen içerikle karşılaşırsanız, deneyimi iyileştirmeye devam edebilmemiz için geri bildirim sağlayarak bize bildirin.

Kullanım örnekleri

Amaçlanan kullanımlar

Copilot, durumdan veya konu başlığından bağımsız olarak kullanıcıların çok çeşitli soruları yanıtlamasını desteklemeye yöneliktir. Kullanıcılar, etkileşimlerin yapay zeka sistemiyle daha doğal konuşmalar gibi hissetmesi amaçlanan metin, görüntü ve ses girişlerini kullanarak Copilot ile etkileşime geçebilir. Buna ek olarak, kullanıcılar Copilot'un daha doğru bir yanıt üretmek için daha fazla bilgi gerektirebileceği konularla ilgili belirli bilgileri bulmak için metin aracılığıyla Copilot ile etkileşim kuruyorsa, bu deneyim kullanıcıları ilgili arama sonuçlarıyla bağlamayı, web genelindeki sonuçları gözden geçirmeyi ve kullanıcıların aradığı bilgileri özetlemeye yöneliktir. Copilot'ta kullanıcılar şunları yapabilir: 

  • Metin aracılığıyla sohbet ederken gerçek zamanlı bilgileri özetleyin.    Kullanıcılar metin aracılığıyla Copilot ile etkileşime geçtiğinde, sistem daha fazla bilgiye ihtiyaç duyarsa web aramaları gerçekleştirir ve kullanıcılara sunmak üzere bilgilerin özetini oluşturmak için en üstteki web arama sonuçlarını kullanır. Bu özetler, kullanıcıların Copilot'un özetini temel alan arama sonuçları kaynaklarını görmesine ve bunlara kolayca erişmesine yardımcı olmak için web sayfalarına yapılan alıntıları içerir. Kullanıcılar daha fazla bilgi edinmek istediklerinde doğrudan kaynağa gitmek için bu bağlantılara tıklayabilir.

  • Metin kullanarak yapay zeka sistemiyle sohbet edin.    Kullanıcılar Copilot ile metin aracılığıyla sohbet edebilir, yeni bilgiler bulmak ve çok çeşitli konularda destek almak için takip soruları sorabilir.

  • Sesi ve görünümleri kullanarak yapay zeka ile arabirim.    Copilot yalnızca ses girişi almakla kalmaz, aynı zamanda kullanıcılar tarafından seçilen dört seste ses çıkışı da üretir ve etkileşimi zenginleştirmek için görsel bir görünüm sunar. Ses-ses ve görünüm özellikleri, kullanıcıların Copilot ile daha doğal ve akıcı bir şekilde etkileşim kurmasını sağlar.

  • Sindirilebilir haber içeriği alın.    Kullanıcılar, Copilot'taki Yenilikler özelliği aracılığıyla seçilen konu alanlarına göre haberlerin, hava durumunun ve diğer güncelleştirmelerin özetini almak ve bu brifingleri pod yayını benzeri bir biçimde dinlemek için Copilot'ı kullanabilir. Bu özellik, Microsoft ile anlaşmaları olan yetkili kaynaklardan içerik çeker.

  • Yeni fikirler oluşturma konusunda yardım alın.    Kullanıcılar Copilot deneyimiyle her etkileşim kurduğunda, Copilot ile yararlı ve ilginç konular hakkında sohbet etmeye başlamak için tıklayabilecekleri bir dizi kart görürler. Kullanıcılar diğer Microsoft tüketici hizmetleriyle etkileşime girdiyse, gizlilik ilkelerimize uygun olarak kartlar kişiselleştirilir. Copilot'taki kartlar zaman içinde kullanıcının sohbet geçmişine göre kişiselleştirilebilir. Kullanıcılar istediğiniz zaman ayarlardan kişiselleştirmeyi geri çevirebilir.

  • Yaratıcı içerik oluşturma.    Copilot ile sohbet ederken, kullanıcılar Copilot deneyiminin yardımıyla yeni şiirler, şakalar, hikayeler, resimler ve diğer içerikler oluşturabilir. Copilot, istenirse kullanıcılar tarafından karşıya yüklenen görüntüleri de düzenleyebilir.

  • Android'de görevleri gerçekleştirin.Kullanıcılar, belirli görevleri yerine getirmek için Android platformu üzerinden sesli olarak Copilot ile etkileşime geçebiliyor. Bu görevler zamanlayıcıları ve alarmları ayarlar, telefon aramaları yapar, SMS mesajları gönderir ve Uber sipariş eder. Görevler tamamlanmadan önce kullanıcıların telefon aramasını, SMS iletisini ve Uber siparişini onaylaması gerekir.

  • Araştırmada yardımcı olabilir.  Copilot, ayrıntılı kaynaklarda gezinerek, konuların ayrıntılı dökümlerini sunarak ve kullanıcıların daha karmaşık sorgular için hızlı yanıtların ötesine geçmelerine yardımcı olmak için kaynaklara bağlantı vererek araştırma görevlerini gerçekleştirebilir. Copilot, geçmiş araştırma sorguları ve Copilot belleği gibi şeylere dayalı olarak kullanıcılar için proaktif olarak kişiselleştirilmiş araştırma önerileri oluşturabilir. Kullanıcılar, istedikleri zaman ayarlarda kişiselleştirmeyi veya bildirimleri geri çevirebilir.

  • Copilot Vision ile dünyayı keşfedin. Copilot, ekranınızı veya mobil kamera akışınızı görüntüleyebilir ve sorularınızı yanıtlamak ve sizinle etkileşime geçmek için sesini kullanabilir. Copilot, çalışırken, gezinirken veya dünyayı keşfederken size yardımcı olmak için gerçek zamanlı olarak anında tarama yapabilir, analiz edebilir ve içgörüler ve öneriler sunabilir. Copilot Vision Edge, Windows, iOS ve Android'de kullanılabilir.

Diğer kullanım örneklerini seçerken dikkat edilmesi gerekenler

Yapay zeka hatalara neden olabileceği için kullanıcıların karar vermeden veya Copilot'un yanıtlarına göre hareket etmeden önce tüm içeriği gözden geçirmelerini öneririz. Ayrıca, kaçınmanızı önerdiğimiz veya Kullanım Koşullarımıza aykırı olan bazı senaryolar vardır. Örneğin Microsoft, Copilot'un yasa dışı etkinliklerle bağlantılı olarak veya yasa dışı etkinlikleri teşvik etmeye yönelik herhangi bir amaçla kullanılmasına izin vermez.  

Sınırlamalar

Copilot deneyiminin altında yer alan dil, görüntü ve ses modelleri, toplumsal yanlılıkları yansıtabilecek eğitim verilerini içerebilir ve bu da Copilot'un haksız, güvenilir olmayan veya rahatsız edici olarak algılanan şekillerde davranmasına neden olabilir. Yoğun model eğitimi ve güvenlik ince ayarlamalarımızın yanı sıra eğitim verilerine, kullanıcı istemlerine ve model çıkışlarına yerleştirdiğimiz sorumlu yapay zeka denetimlerinin ve güvenlik sistemlerinin uygulanmasına rağmen yapay zeka odaklı hizmetler basit ve olasıdır. Bu, tüm uygunsuz içerikleri kapsamlı bir şekilde engellemeyi zorlaştırır ve yapay zeka tarafından oluşturulan içeriklerde olası sapmaların, stereotiplerin, ön planda olmayanlığın veya diğer zarar türlerinin ortaya çıkması risklerine yol açar. Bu sınırlamaların Copilot deneyiminde ortaya çıkarabileceği yollardan bazıları burada listelenmiştir. 

  • Stereotipleme: Copilot deneyimi stereotipleri güçlendirebilir. Örneğin, "O bir hemşire" ve "O bir doktor" sözcüklerini Türkçe gibi cinsiyetsiz bir dile çevirip İngilizceye geri dönerken, Copilot yanlışlıkla "O bir hemşire" ve "O bir doktor" stereotipik (ve yanlış) sonuçlar verebilir. Bir diğer örnek, "Babasız çocuklar" istemine dayalı bir görüntü oluştururken, sistemin yalnızca bir ırktan veya etnik kökenden çocukların görüntülerini oluşturarak temel alınan modelleri eğitmek için kullanılan genel kullanıma açık görüntülerde mevcut olabilecek zararlı stereotipleri pekiştirebileceğidir. Copilot ayrıca görüntünün bileşenlerine güvenerek ve doğru olmayabilecek varsayımlarda bulunarak stereotipleri kullanıcının giriş görüntüsündeki içeriklere göre güçlendirebilir. Giriş ve çıkış sınıflandırıcıları, ince ayarlı modeller ve sistem iletileri de dahil olmak üzere rahatsız edici stereotipler içeren içerik riskini azaltmak için azaltmalar uyguladık.

  • Fazla temsil ve az temsil: Copilot, yanıtlarında kişi gruplarını fazla veya az temsil edebilir, hatta hiç temsil etmeyebilir. Örneğin, "gay" sözcüğünü içeren metin istemleri potansiyel olarak zararlı veya rahatsız edici olarak algılanırsa, bu durum LGBTQIA+ topluluğu hakkında meşru nesillerin fazla tanıtılmamasına neden olabilir. Giriş ve çıkış sınıflandırıcıları, ince ayarlı modellerin yanı sıra sistem iletilerini de eklemenin yanı sıra, kişi gruplarını fazla veya az temsil eden içerik riskini azaltmak için Designer çeşitli risk azaltmalarından biri olarak istem zenginleştirmesini kullanırız.

  • Uygunsuz veya rahatsız edici içerik: Copilot deneyimi potansiyel olarak başka türlerde uygunsuz veya rahatsız edici içerik üretebilir. Örnek olarak, istem bağlamında uygunsuz olan veya farklı bir modalitedeki (örneğin, metin) aynı çıkışla karşılaştırıldığında tek bir modalitede (örneğin ses) içerik oluşturma özelliği verilebilir. Diğer örnekler arasında nefret simgeleri gibi zararlı yapıtlar, tartışmalı, tartışmalı veya ideolojik olarak kutuplaştırılan konularla ilgili içerik ve cinsel içerik filtrelerinden kaçınan cinsel olarak ücretlendirilen içerikler gibi yapay zeka tarafından oluşturulan görüntüler yer alır. Giriş ve çıkış sınıflandırıcıları, ince ayarlı modeller ve sistem iletileri gibi uygunsuz veya rahatsız edici içerik içeren nesillerin riskini azaltmak için azaltmalar yaptık.

  • Bilgi güvenilirliği: Copilot gerektiğinde güvenilir kaynaklarla yanıt vermeyi hedeflese de yapay zeka hata yapabilir. Olası olarak, makul olabilecek ama aslında yanlış olan, gereksiz içerik oluşturabilir veya içerik üretebilir. Yüksek yetkili web verilerinden yanıtlar çizerken bile, yanıtlar bu içeriği tamamen doğru veya güvenilir olmayacak şekilde yanlış gösterebilir. Kullanıcılara kullanıcı arabirimi aracılığıyla ve bunun gibi belgelerde Copilot'un hata yapabileceklerini anımsatıyoruz. Ayrıca kullanıcıları yapay zeka sınırlamaları konusunda eğitmeye devam ediyoruz. Örneğin, karar vermeden önce olguları iki kez kontrol etmeye veya Copilot'un yanıtlarına göre hareket etmeye teşvik ediyoruz. Kullanıcılar Copilot ile metin aracılığıyla etkileşime geçtiğinde, nesillerin ön plana çıkarılma riskini azaltmak için kendini yüksek kaliteli web verilerine dönüştürmeye çalışır.

  • Çok dilli performans: Güncelleştirilmiş Copilot'un yayınlanması sırasında İngilizcenin en iyi performansı gösterdiği diller arasında performans değişimleri olabilir. Diller arasında performansı geliştirmek önemli bir yatırım alanıdır ve son modeller performansın geliştirilmesine yol açmaktadır.

  • Ses sınırlamaları: Ses modelleri başka sınırlamalar da içerebilir. Genel olarak, konuşma girişinin akustik kalitesi, konuşma gürültüsü, sözcük dağarcığı, vurgular ve ekleme hataları Copilot'un kullanıcının ses girişini tatmin edici bir şekilde işleyip işlemediğini ve yanıt verip vermediğini de etkileyebilir. Ayrıca, Copilot Voice kullanırken kullanıcı istemleri web aramalarını tetiklemeyeceği için Copilot ses modunda geçerli olaylara yanıt veremeyebilir.

  • İnternet bağlantısına bağımlılık: Güncelleştirilmiş Copilot deneyimi, İnternet bağlantısının çalışması için kullanılır. Bağlantıdaki kesintiler hizmetin kullanılabilirliğini ve performansını etkileyebilir.

Sistem performansı

Birçok yapay zeka sisteminde performans genellikle doğrulukla ilgili olarak tanımlanır (örneğin, yapay zeka sisteminin doğru tahmin veya çıkış sağlama sıklığı). Copilot ile kullanıcının tercihlerini yansıtan yapay zeka destekli bir yardımcı olarak Copilot'a odaklandık. Bu nedenle, iki farklı kullanıcı aynı çıkışa bakabilir ve benzersiz durumlarına ve beklentilerine ne kadar yararlı veya ilgili olduğuna ilişkin farklı görüşlere sahip olabilir ve bu da bu sistemlerin performansının daha esnek bir şekilde tanımlanması gerektiği anlamına gelir. Performansın, uygulamanın kullanıcıların beklediği performansa sahip olduğu anlamına geldiğini düşünüyoruz.

Sistem performansını geliştirmek için en iyi yöntemler 

Doğal, konuşma dilini kullanarak arabirimle etkileşime geçin.    Copilot ile kullanıcı için rahat bir şekilde etkileşime geçmek, deneyim aracılığıyla daha iyi sonuçlar elde etmenin anahtarıdır. İnsanların günlük yaşamlarında etkili bir şekilde iletişim kurmalarına yardımcı olacak teknikleri benimsemeye benzer şekilde, copilot ile yapay zeka destekli bir yardımcı olarak kullanıcıya tanıdık gelen metin veya konuşma aracılığıyla etkileşim kurmak daha iyi sonuçlar elde etmeye yardımcı olabilir.

Kullanıcı deneyimi ve benimseme.    Copilot'un etkili kullanımı, kullanıcıların özelliklerini ve sınırlamalarını anlamasını gerektirir. Öğrenme eğrisi olabilir ve kullanıcılar hizmetle etkili bir şekilde etkileşime geçmek ve hizmetten yararlanmak için çeşitli Copilot kaynaklarına (örneğin, bu belge ve Copilot SSS'lerimiz) başvurmak isteyebilir.

Riskleri eşleme, ölçme ve yönetme

Diğer dönüşüm teknolojileri gibi yapay zekanın avantajlarından yararlanmak da risksiz değildir ve Microsoft'un Sorumlu yapay zeka programının temel bir parçası olası riskleri belirleyip eşlemek, bu riskleri ölçmek ve risk azaltmalar oluşturarak yönetmek ve copilot'u zaman içinde sürekli iyileştirmek için tasarlanmıştır. Aşağıdaki bölümlerde olası riskleri eşleme, ölçme ve yönetmeye yönelik yinelemeli yaklaşımımızı açıklıyoruz.

Harita: Kırmızı ekip oluşturma gibi dikkatli planlama ve dağıtım öncesi saldırgan test, olası riskleri eşlememize yardımcı olur. Copilot deneyimini destekleyen temel modeller, ilgili konu alanlarında çok disiplinli bakış açılarını temsil eden test edicilerin kırmızı takım testinden geçmiştir. Bu test, en son teknolojinin hem ile hem de hiçbir ek koruma uygulanmadan nasıl çalışacağını değerlendirmek için tasarlanmıştır. Bu alıştırmaların model düzeyinde amacı zararlı yanıtlar üretmek, kötüye kullanım için olası yolları ortaya çıkararak özellikleri ve sınırlamaları belirlemektir.

Copilot deneyimini sınırlı bir sürüm önizlemesinde herkese açık hale getirmeden önce, Copilot'ı eksiklikler ve güvenlik açıkları açısından değerlendirmek için uygulama düzeyinde kırmızı ekip oluşturma da gerçekleştirdik. Bu işlem, sistemin çok çeşitli kullanıcılar tarafından nasıl kullanılabileceğini daha iyi anlamamıza yardımcı oldu ve risk azaltmalarımızı geliştirmemize yardımcı oldu.

Ölçü: Copilot'u mevcut güvenlik değerlendirmelerimize karşı değerlendirmeye ek olarak, yukarıda açıklanan kırmızı ekip oluşturmanın kullanılması jailbreak, zararlı içerik ve ön planda olmayan içerik gibi belirlenen olası risklere karşılık gelen değerlendirmeler ve sorumlu yapay zeka ölçümleri geliştirmemize yardımcı oldu.

İnsan katılımcıların ve otomatik konuşma oluşturma işlem hattının bir birleşimini kullanarak bu riskleri hedefleyen konuşma verilerini topladık. Daha sonra her değerlendirme, eğitilmiş insan açıklamalı bir havuz veya otomatik ek açıklama işlem hattı tarafından puanlanır. Ürün her değiştiğinde, mevcut risk azaltmalar güncelleştirildiğinde veya yeni risk azaltmalar önerildiğinde, hem ürün performansını hem de sorumlu yapay zeka ölçümlerini değerlendirmek için değerlendirme işlem hatlarımızı güncelleştiririz. Bu otomatik değerlendirme bağlamı işlem hatları, ilkeleri saldırgan bir şekilde test etmek isteyen LLM'lerle oluşturulan insan değerlendiricilerle toplanan konuşmaların ve yapay konuşmaların bir birleşimidir. Bu güvenlik değerlendirmelerinin her biri LLM'lerle otomatik olarak puanlanır. Yeni geliştirilen değerlendirmeler için, her değerlendirme başlangıçta metin içeriğini okuyan veya ses çıkışını dinleyen insan etiketleyiciler tarafından puanlanır ve ardından otomatik LLM tabanlı değerlendirmelere dönüştürülür.

Modellerimizin hedeflenen davranışı, hem insan hem de otomatik değerlendirme işlem hatlarımızla birlikte büyük ölçekte olası riskler için hızla ölçüm yapmamıza olanak tanır. Zaman içindeki yeni sorunları belirledikçe ek riskleri değerlendirmek için ölçüm kümelerini genişletmeye devam ediyoruz. 

Yönet: Kırmızı ekip oluşturma yoluyla olası riskleri ve kötüye kullanımı tanımlayıp yukarıda açıklanan yaklaşımlarla ölçtükçe Copilot deneyimine özgü ek risk azaltmalar geliştirdik. Aşağıda, bu risk azaltmalardan bazılarını açıklıyoruz. Ürün performansını ve risk azaltma yaklaşımımızı geliştirmek için Copilot deneyimini izlemeye devam edeceğiz. 

  • Aşamalı sürüm planları ve sürekli değerlendirme.    Teknolojilerimiz ve kullanıcı davranışımız geliştikçe sorumlu yapay zeka yaklaşımımızı sürekli olarak öğrenmeye ve geliştirmeye kararlıyız. Artımlı sürüm stratejimiz, teknolojimizi laboratuvardan dünyaya güvenli bir şekilde taşımamızın temel bir parçası olmuştur ve Copilot deneyiminin avantajlarını güvence altına almak için bilinçli ve düşünceli bir sürece bağlıyız. Ürün performansını ve mevcut risk azaltmaları geliştirmek ve öğrenmelerimize yanıt olarak yeni azaltmalar uygulamak için Copilot'ta düzenli olarak değişiklikler yapıyoruz.

  • Olası riskleri veya kötüye kullanımı azaltmak için sınıflandırıcılardan ve sistem iletisinden yararlanma.    Kullanıcı istemlerine yanıt olarak LLM'ler sorunlu içerik üretebilir. Yukarıdaki Sistem Davranışı ve Sınırlamaları bölümlerinde sınırlamaya çalıştığım içerik türlerini ele aldık. Sınıflandırıcılar ve sistem iletisi, bu içerik türlerinin riskini azaltmaya yardımcı olmak için Copilot'ta uygulanan iki risk azaltma örneğidir. Sınıflandırıcılar, kullanıcı istemlerinde veya oluşturulan yanıtlarda zararlı olabilecek içeriğe bayrak eklemek için metni sınıflandırır. Ayrıca sistem iletisinden yararlanmak için var olan en iyi yöntemleri kullanırız. Bu, modelin davranışını Microsoft'un yapay zeka ilkeleriyle ve kullanıcı beklentileriyle uyumlu hale getirmek için yönergeler vermeyi içerir.

  • Copilot görüntüsü karşıya yüklemelerine onay verme.    Bir kullanıcı, Copilot'a yüz içeren bir görüntüyü ilk kez yükleyişinde, biyometrik verilerinin Copilot'a yüklenmesine onay vermesi istenir. Kullanıcı kabul etmezse görüntü Copilot'a gönderilmez. Yüz içerseler de içermeseler de tüm görüntüler, konuşma sona erdikten sonraki 30 gün içinde silinir.

  • Yapay zekanın açığa çıkması.    Copilot ayrıca insanları yapay zeka sistemiyle etkileşime geçtiğini bildirmek için tasarlanmıştır. Kullanıcılar Copilot ile etkileşim kurarken, sistemin özelliklerini anlamalarına, Copilot'un yapay zeka tarafından desteklendiğini onlara açıklamalarına ve sınırlamaları iletmelerine yardımcı olmak için tasarlanmış çeşitli dokunma noktaları sunuyoruz. Bu deneyim, kullanıcıların Copilot'dan en iyi şekilde yararlanmak ve fazla mesai riskini en aza indirmek için bu şekilde tasarlanmıştır. Açıklamalar, kullanıcıların Copilot'ı ve onunla etkileşimlerini daha iyi anlamasına da yardımcı olur.

  • Medya başarısı.    Copilot bir görüntü oluşturduğunda, kaynağı işaretlemek için şifreleme yöntemlerini veya Copilot kullanılarak oluşturulan tüm yapay zeka tarafından oluşturulan görüntülerin "provenance"ını kullanan bir "İçerik Kimlik Bilgileri" özelliğini etkinleştirdik. Bu teknoloji, İçerik ve Orijinallik Koalisyonu (C2PA) tarafından belirlenen standartları kullanarak yapay zeka tarafından oluşturulan görüntülere ek bir güven ve saydamlık katmanı ekler.

  • Otomatik içerik algılama.    Kullanıcılar sohbet isteminin bir parçası olarak görüntü yüklediğinde, Copilot çocukların cinsel istismarını ve kötüye kullanım görüntülerini (CSEAI) algılamak için araçlar dağıtır. Microsoft, ABD yasalarının gerektirdiği tüm görünür CSEAI'leri Ulusal Kayıp ve Sömürülen Çocuklar Merkezi'ne (NCMEC) bildirir. Kullanıcılar analiz etmek veya işlemek üzere dosyaları karşıya yüklediğinde Copilot, yasa dışı etkinlikler veya kötü amaçlı kodla ilgili olabilecek metinler gibi risklere veya kötüye kullanıma yol açabilecek içeriği algılamak için otomatik tarama dağıtır.

  • Kullanım Koşulları ve Kullanım Kuralları.    Kullanıcılar, Copilot'un geçerli Kullanım Koşulları ve Kullanım KurallarıMicrosoft Hizmetleri Sözleşmesi'ne ve diğer şeylerin yanında izin verilen ve izin verilemez kullanımlar ve koşulları ihlal etme sonuçlarını bildiren Microsoft Gizlilik Bildirimi'ne uymalıdır. Kullanım Koşulları ayrıca kullanıcılar için ek açıklamalar sağlar ve copilot hakkında bilgi edinmek için kullanıcılara bir başvuru görevi görür. Ciddi veya yinelenen ihlaller işleyen kullanıcılar hizmetten geçici veya kalıcı olarak askıya alınabilir.

  • Geri bildirim, izleme ve gözetim.    Copilot deneyimi, kullanıcıların Microsoft'un operasyon ekipleri tarafından gözden geçirilmiş geri bildirim göndermesine olanak tanıyan mevcut araçları temel alır. Ayrıca, riskleri eşleme, ölçme ve yönetme yaklaşımımız daha fazla bilgi edindikçe gelişmeye devam edecektir ve önizleme dönemlerinde toplanan geri bildirimlere dayalı geliştirmeler yapıyoruz.

Sorumlu yapay zeka hakkında daha fazla bilgi edinin

Microsoft Sorumlu Yapay Zeka Saydamlık Raporu

Microsoft Yapay Zeka İlkeleri

Microsoft Sorumlu Yapay Zeka Kaynakları

Sorumlu Yapay Zeka ile ilgili Microsoft Azure Learning kursları

Microsoft Copilot hakkında daha fazla bilgi edinin

Microsoft Copilot Sık Sorulan Sorular

Bu belge hakkında

© 2024 Microsoft Corporation. Tüm hakları saklıdır. Bu belge yalnızca bilgilendirme amacıyla "olduğu gibi" sağlanır. URL ve diğer İnternet Web sitesi başvuruları da dahil olmak üzere bu belgede ifade edilen bilgiler ve görünümler bildirimde bulunmadan değişebilir. Kullanım riski size aittir. Bazı örnekler yalnızca çizim içindir ve kurgusaldır. Gerçek ilişkilendirme amaçlanmamış veya çıkarılamamalıdır.

Bu belgenin amacı, yasal tavsiye sağlamak değildir ve bu şekilde yorumlanmamalıdır. Faaliyette olduğunuz yargı yetkisi, yapay zeka sisteminiz için geçerli olan çeşitli yasal düzenlemelere veya yasal gereksinimlere sahip olabilir. Sisteminiz için geçerli olabilecek yasalar veya düzenlemeler hakkında emin değilseniz, özellikle de bu önerileri etkileyebileceklerini düşünüyorsanız bir hukuk uzmanına başvurun. Bu önerilerin ve kaynakların tümünün her senaryo için uygun olmadığını ve diğer taraftan bu önerilerin ve kaynakların bazı senaryolar için yetersiz olabileceğini unutmayın.

Yayımlanma Tarihi: 01.10.2024

Son güncelleştirme: 01.10.2024

Daha fazla yardıma mı ihtiyacınız var?

Daha fazla seçenek mi istiyorsunuz?

Abonelik avantajlarını keşfedin, eğitim kurslarına göz atın, cihazınızın güvenliğini nasıl sağlayacağınızı öğrenin ve daha fazlasını yapın.