最終更新日: 2025 年 5 月
透明度に関する注意とは
AI システムには、テクノロジだけでなく、それを使用するユーザー、影響を受けるユーザー、デプロイされる環境も含まれます。 Microsoft の透明性に関するメモは、Copilot の背後にある AI テクノロジのしくみ、システムのパフォーマンスと動作に影響を与える選択、システム全体について考えることの重要性を理解し、Copilot のユーザーが自分のエクスペリエンスを制御し、安全で安全な製品を提供するための手順を理解できるようにすることを目的としています。
Microsoft の透明性に関するメモは、MICROSOFT が AI 原則を実践するための広範な取り組みの一環です。 詳細については、 Microsoft AI の原則に関するページを参照してください。
Microsoft Copilotの基本
概要
Copilot は AI を活用したエクスペリエンスであり、状況やトピックに関係なく、ユーザーがさまざまな質問に答えるのをサポートする準備をしながら、ユーザーが求めている情報を提供するのに役立ちます。 更新された Copilot は、基本的な情報取得クエリに応答するだけでなく、タスクを完了するときによりプロアクティブなサポートをユーザーに提供するコンテンツの生成に重点を置いています。 AI が、さまざまな種類の製品を構築する必要がある、より多くの学習、発見、創造的になるのに役立つ可能性について理解を深めています。 新しい Copilot エクスペリエンスは、オープンエンドで動的な新しい種類のエクスペリエンスになり、より直感的な方法でユーザーのニーズに対応することを目指しています。
Microsoft では、責任ある AI へのコミットメントを真剣に受け止めています。 更新された Copilot エクスペリエンスは、Microsoft の AI 原則、Microsoft の責任ある AI Standardに沿って開発され、Microsoft の責任ある AI のオフィス、エンジニアリング チーム、Microsoft Research、Aether など、会社全体の責任ある AI エキスパートと提携しています。 責任ある AI の詳細については、Microsoft のこちらを参照してください。
このドキュメントでは、Copilot に対する責任ある AI へのアプローチについて説明します。 リリースに先立ち、Microsoft の最先端の方法を利用して、システムの潜在的なリスクと誤用をマップ、測定、管理し、ユーザーのメリットを確保しました。 Copilot の進化を続けるにつれて、責任ある AI の取り組みについても学習と改善を続けています。 このドキュメントは、進化するプロセスと方法を伝えるために定期的に更新されます。
主な用語
クラシファイア ラベル付けされたクラスまたは情報のカテゴリにデータを並べ替えるのに役立つ機械学習モデル。 更新された Copilot エクスペリエンスでは、分類子を使用する方法の 1 つは、ユーザーによって送信された、またはシステムによって生成された有害な可能性のあるコンテンツを検出して、そのコンテンツの生成とシステムの誤用または悪用を軽減することです。
接地 ユーザーが情報を求めている特定の会話の場合、Copilot は Web 検索結果に根付きます。 つまり、Copilot は Web からの高ランクのコンテンツに応答を集中させ、生成されたテキスト応答に続いてハイパーリンク付きの引用を提供します。 現時点では、音声モードのユーザー プロンプトは Web 検索をトリガーしないため、引用を含む応答はありません。
大きな言語モデル (LLM) このコンテキストの大きな言語モデル (LLM) は、大量のテキスト データでトレーニングされ、シーケンス内の単語を予測する AI モデルです。 LLM は、テキストの生成、要約、翻訳、分類など、さまざまなタスクを実行できます。
軽減策 Copilot 内で AI 機能を使用することで発生する可能性のある潜在的なリスクを軽減するために設計された方法または方法の組み合わせ。
マルチモーダル モデル (MMM) マルチモーダル モデル (MMM) は、テキスト、画像、オーディオなど、さまざまな種類のデータでトレーニングされる AI モデルです。 これらのモデルは、テキストの書き込み、画像の記述、音声の認識、さまざまな種類のデータ間での情報の検索など、さまざまなタスクを実行できます。
プロンプト ユーザーが Copilot 内の AI 機能と対話するために Copilot に送信するテキスト、画像、オーディオの形式の入力。
赤いチーミング 専門家がシステムの制限と脆弱性を評価し、計画された軽減策の有効性をテストするために使用される手法。 赤いチームテストには、潜在的なリスクを特定するために良性ペルソナと敵対的ペルソナの両方を採用するテスターが含まれており、リスクの体系的な測定とは異なります。
Responses プロンプトに応答して、またはユーザーとの前後の一部として Copilot が出力するテキスト、画像、またはオーディオ。 "response" のシノニムには、"completion"、"generation"、"answer" が含まれます。
小さな言語モデル (SLM) このコンテキストの小さな言語モデル (SLM) は、大規模な言語モデルと比較して、より小さく、焦点を絞った量のデータでトレーニングされる AI モデルです。 サイズが小さいにもかかわらず、SMM は、テキストの生成、要約、翻訳、分類など、さまざまなタスクを実行できます。 LLM の広範な機能と一致しない可能性がある一方で、多くの場合、SLM はリソース効率が高く、特定のターゲット アプリケーションに対して非常に効果的です。
システム メッセージ システム メッセージ ("metaprompt" とも呼ばれます) は、システムの動作をガイドするプログラムです。 システム メッセージの一部は、システムの動作を Microsoft AI の原則とユーザーの期待に合わせて調整するのに役立ちます。 たとえば、システム メッセージには、"情報を提供しない、または物理的、感情的、または経済的な損害を引き起こす可能性のあるコンテンツを作成しない" などの行が含まれる場合があります。
機能
システムの動作
Copilot では、さまざまなタスクでユーザーを支援できる魅力的なエクスペリエンスを提供するために、よりパーソナライズされた AI エクスペリエンスをユーザーに提供する革新的なアプローチを開発しました。 この革新的なアプローチは、Microsoft、OpenAI、およびその他のモデル開発者からの言語モデルやマルチモーダル モデルなど、さまざまな高度なテクノロジを活用しています。 公開前の新しい Copilot エクスペリエンスの基になるモデルの安全技術の実装に取り組み、強化された Copilot エクスペリエンスを提供するカスタマイズされた機能と動作のセットを開発しました。 更新された Copilot では、ユーザーは自然言語のテキストまたは音声でプロンプトを送信できます。 応答は、テキスト形式のチャット応答 (必要に応じて Web コンテンツへの従来のリンクを含む) や画像 (画像要求がプロンプトの一部として行われた場合) など、さまざまな形式でユーザーに提示されます。 ユーザーが Copilot 音声モード内で自然言語の音声でプロンプトを送信すると、音声応答を受け取ります。
ユーザーが Copilot でプロンプトを入力すると、有害または不適切なコンテンツを除外するために、プロンプト、会話履歴、およびシステム メッセージが複数の入力分類子を介して送信されます。 これは、モデルのパフォーマンスを向上させ、ユーザーが安全でない可能性のある方法でモデルを要求しようとする可能性がある状況を軽減するための重要な最初のステップです。 プロンプトが入力分類子を通過すると、要求に Web からのデータを接地する必要があるかどうか、および要求に応答する言語モデルを判断するために SLM に送信されます。 すべてのモデルは、ユーザーのプロンプトと最近の会話履歴を使用して応答を生成し、要求をコンテキスト化し、応答を Microsoft AI 原則とユーザーの期待に合わせて調整するシステム メッセージを生成し、必要に応じて、Web からの既存の高ランクコンテンツの地上の応答に応答を検索結果に合わせます。
応答は、テキスト形式のチャット応答、従来の Web コンテンツへのリンク、画像、オーディオ応答など、さまざまな形式でユーザーに提示されます。 応答がテキスト形式で提供され、応答が Web からのデータに固定されている場合、出力にはテキストの下に一覧表示されたハイパーリンク付き引用文献が含まれているため、ユーザーは応答の基礎として使用された Web サイトにアクセスし、そこからトピックの詳細を確認できます。
Copilotは、ユーザーが新しい物語、詩、歌の歌詞、画像を作成するのにも役立ちます。 Copilot がクリエイティブ コンテンツを生成するユーザーの意図 ("write me a .." で始まるユーザー プロンプトなど) を検出すると、ほとんどの場合、システムはユーザーのプロンプトに応答するコンテンツを生成します。 同様に、Copilot がイメージを生成するユーザー意図 ("draw me a .." で始まるユーザー プロンプトなど) を検出すると、Copilot はほとんどの場合、ユーザーのプロンプトに応答するイメージを生成します。 Copilot がアップロードされたイメージ ("add a ..." で始まるユーザー プロンプトなど) を変更するユーザー意図を検出すると、ほとんどの場合、Copilot はユーザーのプロンプトに応答する画像を変更します。 Copilot は、ユーザー プロンプトに問題のあるコンテンツが発生する可能性のある特定の用語が含まれている場合、クリエイティブ コンテンツで応答しない場合があります。
Microsoft アカウント (MSA) を使用しているユーザーは、Copilot Proにサブスクライブするオプションも提供されるようになりました。これにより、高速化されたパフォーマンス、長時間の Copilot 音声機能の使用、場合によっては新しい試験的機能へのアクセスなど、エクスペリエンスが強化されます。 Copilot Proは現在、限られた数の国で利用でき、近日中により多くの市場でCopilot Proを利用できるようにする予定です。
意図された安全行動
Copilot の目標は、ユーザーに役立つことです。 Microsoft の他のジェネレーティブ AI 製品やサービスのベスト プラクティスを活用することで、Copilot が問題のあるコンテンツを生成できないようにし、安全で肯定的なユーザー エクスペリエンスを実現する可能性を高めます。 リスクを軽減するための手順を講じていましたが、Copilot の背後にあるような生成型 AI モデルは確率的であり、間違いを犯す可能性があります。つまり、軽減策によって有害なユーザー プロンプトや AI によって生成された応答がブロックされない場合があります。 Copilot の使用中に有害または予期しないコンテンツが発生した場合は、引き続きエクスペリエンスを改善できるようにフィードバックをお寄せください。
ユース ケース
目的に合った用途
Copilot は、状況やトピックに関係なく、さまざまな質問に回答するユーザーをサポートすることを目的としています。 ユーザーは、テキスト、画像、オーディオの入力を使用して Copilot と対話できます。ここで、対話は AI システムとの自然な会話のように感じることができます。 さらに、ユーザーがテキストを介して Copilot と対話して、Copilot がより正確な回答を生成するためにより多くの情報を必要とするトピックに関する特定の情報を探している場合、エクスペリエンスはユーザーを関連する検索結果に結び付け、Web 全体から結果を確認し、ユーザーが探している情報を要約することを目的としています。 Copilot では、ユーザーは次のことができます。
-
テキストを介してチャットするときにリアルタイムの情報を要約します。 ユーザーがテキストを介して Copilot と対話すると、システムは、より多くの情報が必要な場合に Web 検索を実行し、上位の Web 検索結果を使用して、ユーザーに提示する情報の概要を生成します。 これらの概要には、ユーザーが Copilot の概要を確認し、検索結果のソースに簡単にアクセスできるようにするための Web ページへの引用が含まれます。 ユーザーは、これらのリンクをクリックして、詳細を知りたい場合はソースに直接移動できます。
-
テキストを使用して AI システムとチャットします。 ユーザーはテキストを介して Copilot とチャットし、フォローアップの質問をして新しい情報を見つけ、さまざまなトピックでサポートを受けることができます。
-
音声を使用して AI とインターフェイスします。 Copilotは、オーディオ入力を受信するだけでなく、ユーザーが選択した4つの音声のいずれかでオーディオ出力を生成することもできます。 オーディオからオーディオへの機能を使用すると、ユーザーはより自然で流動的な方法で Copilot と対話できます。
-
ダイジェストニュースコンテンツを受け取ります。 ユーザーは Copilot を使用して、Copilot Daily 機能を介して選択したトピック領域に基づいてニュース、天気、その他の更新プログラムの概要を受け取り、ポッドキャストのような形式でこれらのブリーフィングを聞くことができます。 この機能は、Microsoft と契約を結んだ承認されたソースからコンテンツをプルします。
-
新しいアイデアの生成に関するヘルプを表示します。 ユーザーが Copilot エクスペリエンスと対話するたびに、クリックして便利で興味深いトピックについて Copilot とチャットを開始できる一連のカードが表示されます。 ユーザーが他の Microsoft コンシューマー サービスとやり取りした場合、カードは プライバシー ポリシーに従ってカスタマイズされます。 時間の経過とともに、Copilot のカードはユーザーのチャット履歴に基づいてカスタマイズされる場合があります。 ユーザーは設定でいつでも個人用設定をオプトアウトでき、EEA (欧州経済領域) と英国のユーザーに対して、後でパーソナル化のオプションを検討しています。
-
クリエイティブ コンテンツを生成します。 Copilot とチャットするとき、ユーザーは Copilot エクスペリエンスの助けを借りて、新しい詩、ジョーク、ストーリー、画像、その他のコンテンツを作成できます。 Copilot は、要求された場合にユーザーがアップロードした画像を編集することもできます。
-
Android でタスクを実行します。ユーザーは、音声を介して Android プラットフォームを介して Copilot と対話して、特定のタスクを実行できます。 これらのタスクは、タイマーとアラームの設定、電話の発信、SMS メッセージの送信、Uber の注文です。 ユーザーは、タスクが完了する前に、電話、SMS メッセージ、および Uber の注文を確認する必要があります。
-
研究を支援します。 Copilot は、詳細なリソースを表示し、トピックの詳細な内訳を提供し、ソースにリンクすることで、ユーザーがより複雑なクエリに対する迅速な回答を超えるのに役立つ研究タスクを実行できます。
-
Copilot Visionで世界を探検。 Copilotは、画面またはモバイルカメラフィードを表示し、その音声を使用して質問に回答し、あなたと対話することができます。 Copilot は、作業、閲覧、または世界を探索するときに役立つ分析情報や提案をリアルタイムで瞬時にスキャン、分析、提供できます。 Copilot Visionは、Edge、Windows、iOS、Android で使用できます。
その他のユース ケースを選択するときの考慮事項
AI が間違いを犯す可能性がある Copilot の応答に基づいて意思決定や行動を行う前に、すべてのコンテンツを確認することをお勧めします。 さらに、使用条件に反する、または回避することをお勧めする特定のシナリオがあります。 たとえば、Microsoft では、違法なアクティビティに関連して Copilot を使用したり、違法なアクティビティを促進するための目的で使用したりすることを許可していません。
制限事項
Copilot エクスペリエンスの下にある言語、画像、オーディオ モデルには、社会のバイアスを反映できるトレーニング データが含まれている可能性があります。これにより、Copilot が不公平、信頼性の低い、または攻撃的と見なされる方法で動作する可能性があります。 集中的なモデル トレーニングと安全性の微調整、およびトレーニング データ、ユーザー プロンプト、モデル出力に配置する責任ある AI コントロールと安全システムの実装にもかかわらず、AI 主導のサービスはフォール可能で確率的です。 これにより、すべての不適切なコンテンツを包括的にブロックすることが困難になり、潜在的な偏見、ステレオタイプ、座礁性、または AI によって生成されたコンテンツに現れる可能性のあるその他の種類の損害が発生するリスクが生じます。 これらの制限が Copilot エクスペリエンスに現れる可能性があるいくつかの方法を次に示します。
-
ステレオタイピング: Copilot エクスペリエンスは、ステレオタイプを強化する可能性があります。 たとえば、"彼は看護師です" と "彼女は医者です" をトルコ語などの性別のない言語に翻訳し、英語に戻すと、Copilot は誤って "彼女は看護師である" と "彼は医者です" というステレオタイプの結果 (および正しくない) 結果を得る可能性があります。 もう 1 つの例は、プロンプト "父のいない子供たち" に基づいて画像を生成する場合、システムは、1 つの人種または民族からの子供の画像を生成し、基になるモデルをトレーニングするために使用される一般公開された画像に存在する可能性がある有害なステレオタイプを強化することです。 また、Copilot は、画像のコンポーネントに依存し、真ではない可能性がある仮定を行うことで、ユーザーの入力画像の内容に基づいてステレオタイプを強化する場合もあります。 入力と出力の分類子、微調整されたモデル、システム メッセージなど、不快なステレオタイプを含むコンテンツのリスクを軽減するための軽減策を実装しました。
-
過剰表示と過小表現: Copilot は、応答で、ユーザーのグループを過剰または過小表現したり、まったく表さなかったりする可能性があります。 たとえば、"gay" という単語を含むテキスト プロンプトが有害または不快になる可能性があると検出された場合、LGBTQIA+ コミュニティに関する正当な世代が不足している可能性があります。 入力と出力の分類子、微調整されたモデル、システム メッセージを含めるだけでなく、Designerでのプロンプト エンリッチメントをいくつかの軽減策の 1 つとして使用して、ユーザーのグループを過剰または過小に表すコンテンツのリスクを軽減します。
-
不適切または不快なコンテンツ: Copilot エクスペリエンスは、他の種類の不適切または不快なコンテンツを生成する可能性があります。 たとえば、プロンプトのコンテキストで不適切な 1 つのモダリティ (オーディオなど) でコンテンツを生成する機能や、異なるモダリティ (テキストなど) で同じ出力と比較する場合などです。 その他の例としては、ヘイト シンボルなどの有害なアーティファクトが含まれている可能性のある AI 生成画像、競合するトピック、議論の余地のあるトピック、イデオロギー的に偏向するトピックに関連するコンテンツ、性的関連のコンテンツ フィルターを回避する性的に課金されたコンテンツなどがあります。 入力と出力の分類子、微調整されたモデル、システム メッセージなど、不適切または不快なコンテンツを含む世代のリスクを軽減するための対策を実施しました。
-
情報の信頼性: Copilot は必要に応じて信頼できるソースで対応することを目指していますが、AI は間違いを犯す可能性があります。 これは、意味のないコンテンツを生成したり、合理的に聞こえるかもしれませんが、事実上不正確なコンテンツを作成したりする可能性があります。 高機関の Web データから応答を描画する場合でも、応答は、完全に正確または信頼できない方法でそのコンテンツを誤って表示する可能性があります。 ユーザー インターフェイスやこのようなドキュメントでは、Copilot が間違いを犯す可能性があることをユーザーに通知します。 また、意思決定を行う前に事実を二重チェックしたり、Copilot の応答に基づいて行動したりするなど、AI の制限事項についてもユーザーに教育を続けます。 ユーザーがテキストを介して Copilot と対話している場合、世代が根拠のないリスクを軽減するために、高品質の Web データに身を乗り出そうとします。
-
多言語パフォーマンス: 更新された Copilot をリリースした時点で英語が最高のパフォーマンスを発揮し、言語間のパフォーマンスにバリエーションが存在する可能性があります。 言語間でのパフォーマンスの向上は重要な投資領域であり、最近のモデルによってパフォーマンスが向上しています。
-
オーディオの制限事項: オーディオ モデルでは、他の制限が発生する可能性があります。 大まかに言えば、音声入力の音響品質、音声以外のノイズ、ボキャブラリ、アクセント、挿入エラーは、Copilot がユーザーのオーディオ入力を満足のいく方法で処理して応答するかどうかにも影響する可能性があります。 また、Copilot Voice を使用するときにユーザーがプロンプトを表示しても Web 検索がトリガーされないため、Copilot は音声モードで現在のイベントに応答できない可能性があります。
-
インターネット接続への依存: 更新された Copilot エクスペリエンスは、インターネット接続を機能に依存します。 接続の中断は、サービスの可用性とパフォーマンスに影響を与える可能性があります。
システム パフォーマンス
多くの AI システムでは、パフォーマンスは精度に関連して定義されることが多いです (つまり、AI システムが正しい予測または出力を提供する頻度)。 Copilot では、ユーザーの好みを反映する AI を活用したアシスタントとして Copilot に焦点を当てています。 そのため、2 人の異なるユーザーが同じ出力を見て、それがそれぞれの状況や期待にどの程度役立っているか、関連性があるかについて異なる意見を持つ可能性があります。つまり、これらのシステムのパフォーマンスをより柔軟に定義する必要があります。 パフォーマンスは、アプリケーションがユーザーの期待どおりに実行されることを意味すると広く考えています。
システム パフォーマンスを向上するためのベスト プラクティス
自然な会話言語を使用してインターフェイスと対話します。 ユーザーにとって快適な方法で Copilot と対話することは、エクスペリエンスを通じてより良い結果を得るための鍵です。 日常の生活の中で効果的にコミュニケーションを取るのに役立つ手法を採用するのと同様に、ユーザーになじみのあるテキストや音声を介して AI を活用したアシスタントとして Copilot と対話すると、より良い結果を引き出すのに役立つ場合があります。
ユーザー エクスペリエンスと導入。 Copilot を効果的に使用するには、ユーザーがその機能と制限事項を理解する必要があります。 学習曲線が存在する可能性があり、ユーザーは、サービスと効果的にやり取りし、メリットを得るために、さまざまな Copilot リソース (このドキュメントや Copilot の FAQ など) を参照したい場合があります。
リスクのマッピング、測定、管理
他の変革テクノロジと同様に、AI の利点を活用することはリスクフリーではなく、Microsoft の責任ある AI プログラムの中核部分は、潜在的なリスクを特定してマッピングし、それらのリスクを測定し、時間の経過と共に Copilot を継続的に改善することで管理するように設計されています。 以下のセクションでは、潜在的なリスクをマップ、測定、管理するための反復的なアプローチについて説明します。
マップ: 赤いチーミングなどの慎重な計画と展開前の敵対的テストは、潜在的なリスクをマップするのに役立ちます。 Copilot エクスペリエンスを強化する基になるモデルは、関連するトピック領域全体で学際的な視点を表すテスト担当者から赤いチーム テストを行いました。 このテストは、最新のテクノロジが追加のセーフガードを適用した場合と適用されていない場合の両方でどのように機能するかを評価するように設計されています。 モデル レベルでのこれらの演習の目的は、有害な応答を生成し、誤用の可能性のある手段を明らかにし、機能と制限事項を特定することです。
限定リリース プレビューで Copilot エクスペリエンスを一般公開する前に、アプリケーション レベルで赤いチーミングを実施し、Copilot の欠点と脆弱性を評価しました。 このプロセスは、さまざまなユーザーがシステムをどのように利用できるかをよりよく理解し、軽減策を改善するのに役立ちました。
対策: Copilot を既存の安全性評価に対して評価することに加えて、上記の赤いチーミングを使用することで、脱獄、有害なコンテンツ、未解決コンテンツなど、特定された潜在的なリスクに対応する評価と責任ある AI メトリックを開発するのに役立ちました。
人間の参加者と自動会話生成パイプラインの組み合わせを使用して、これらのリスクを対象とした会話データを収集しました。 その後、各評価は、トレーニング済みの人間のアノテーターのプールまたは自動注釈パイプラインによってスコア付けされます。 製品の変更、既存の軽減策の更新、または新しい軽減策が提案されるたびに、評価パイプラインを更新して、製品のパフォーマンスと責任ある AI メトリックの両方を評価します。 これらの自動評価コンテキスト パイプラインは、人間のエバリュエーターと収集された会話と、敵対的な方法でポリシーをテストするように求められた LLM で生成された合成会話の組み合わせです。 これらの各安全性評価は、LLM で自動的にスコア付けされます。 新しく開発された評価では、各評価は、テキスト コンテンツを読み取るか、オーディオ出力をリッスンする人間のラベラーによって最初にスコア付けされ、LLM ベースの自動評価に変換されます。
人間と自動化の両方の評価パイプラインと組み合わせたモデルの意図された動作により、潜在的なリスクの測定を大規模に迅速に実行できます。 時間の経過に伴う新しい問題を特定するにつれて、測定セットを拡張し続けて追加のリスクを評価します。
管理: 赤いチーミングを通じて潜在的なリスクと誤用を特定し、上記のアプローチでそれらを測定する際に、Copilot エクスペリエンスに固有の追加の軽減策を開発しました。 以下に、これらの軽減策の一部について説明します。 製品のパフォーマンスとリスク軽減アプローチを改善するために、Copilot エクスペリエンスを引き続き監視します。
-
段階的なリリース 計画と継続的な評価。 私たちは、テクノロジとユーザーの行動が進化するにつれて、責任ある AI アプローチを継続的に学習し、改善することに取り組んでいます。 増分リリース戦略は、テクノロジをラボから世界に安全に移行する方法の中核的な部分であり、Copilot エクスペリエンスの利点を確保するための慎重で思慮深いプロセスに取り組んでいます。 製品のパフォーマンスと既存の軽減策を改善し、学習に応じて新しい軽減策を実装するために、定期的に Copilot に変更を加えています。
-
分類子とシステム メッセージを利用して、潜在的なリスクや誤用を軽減する。 ユーザープロンプトに応答して、LLM は問題のあるコンテンツを生成する可能性があります。 上記の「システムの動作と制限事項」セクションで制限しようとしているコンテンツの種類について説明しました。 分類子とシステム メッセージは、これらの種類のコンテンツのリスクを軽減するために Copilot で実装されている軽減策の 2 つの例です。 分類子は、ユーザー プロンプトまたは生成された応答で有害な可能性のあるコンテンツにフラグを設定するためにテキストを分類します。 また、システム メッセージを活用するための既存のベスト プラクティスも利用しています。これには、モデルに指示を出して、その動作を Microsoft の AI 原則とユーザーの期待に合わせて調整する必要があります。
-
Copilot イメージのアップロードに同意する。 ユーザーが顔を含む画像を初めて Copilot にアップロードすると、生体認証データを Copilot にアップロードすることに同意するように求められます。 ユーザーがオプトインしない場合、画像は Copilot に送信されません。 顔が含まれているかどうかにかかわらず、すべての画像は、会話が終了してから 30 日以内に削除されます。
-
AI 開示。 Copilot は、AI システムと対話していることをユーザーに知らせるためにも設計されています。 ユーザーが Copilot と関わると、システムの機能を理解し、Copilot が AI を利用していることを公開し、制限事項を伝えるのに役立つさまざまなタッチポイントを提供します。 このエクスペリエンスは、ユーザーが Copilot を最大限に活用し、過度の依存のリスクを最小限に抑えられるように、この方法で設計されています。 また、開示は、ユーザーが Copilot とその操作をよりよく理解するのにも役立ちます。
-
メディアの証明。 Copilot がイメージを生成すると、Copilot を使用して作成されたすべての AI 生成イメージの "Content Credentials" 機能が有効になりました。 このテクノロジでは、コンテンツと信頼性のための連合 (C2PA) によって設定された標準を使用して、AI によって生成された画像の信頼と透明性の追加レイヤーを追加します。
-
自動コンテンツ検出。 ユーザーがチャット プロンプトの一部として画像をアップロードすると、Copilot は子どもの性的搾取や虐待画像 (CSEAI) を検出するためのツールを展開します。 Microsoft は、米国の法律で要求されているように、見かけ上のすべての CSEAI を国立不足児童搾取センター (NCMEC) に報告します。 ユーザーがファイルをアップロードして分析または処理すると、Copilot は自動スキャンを展開して、違法なアクティビティや悪意のあるコードに関連する可能性のあるテキストなど、リスクや誤用につながる可能性のあるコンテンツを検出します。
-
使用条件と行動規範。 ユーザーは、Copilot の適用される使用条件と行動規範Microsoft サービス契約、および Microsoft プライバシーに関する声明に従う必要があります。特に、許容される、許容できない使用、および条項に違反した結果を通知します。 また、利用規約は、ユーザーに追加の開示を提供し、ユーザーが Copilot について学習するためのリファレンスとして機能します。 重大または繰り返し違反を行ったユーザーは、サービスから一時的または永続的に中断される可能性があります。
-
フィードバック、監視、監視。 Copilot エクスペリエンスは、Microsoft の運用チームによってレビューされたフィードバックをユーザーが送信できる既存のツールに基づいています。 さらに、リスクのマッピング、測定、管理に関するアプローチは、さらに学習するにつれて進化し続け、プレビュー期間中に収集されたフィードバックに基づいて既に改善されています。
責任ある AI の詳細
Microsoft Copilotの詳細
このドキュメントについて
© 2024 Microsoft Corporation。 All rights reserved. となります。 このドキュメントは、情報提供のみを目的として"現状のまま" で提供されています。 このドキュメントに記載されている情報およびビュー (URL やその他のインターネット Web サイト参照を含む) は、予告なく変更される場合があります。 指定サイトはお客様ご自身の責任でご利用ください。 一部の例は図専用であり、架空の例です。 実際の関連付けは意図も推論もされません。
このドキュメントは、提供することを意図したものではなく、法的アドバイスを提供するものとして解釈されるべきではありません。 運用している管轄区域には、AI システムに適用されるさまざまな規制または法的要件がある場合があります。 特にこれらの推奨事項に影響を与える可能性があると思われる場合は、システムに適用される可能性のある法律や規制について不明な場合は、法律専門家に相談してください。 これらの推奨事項とリソースのすべてがすべてのシナリオに適しているわけではないことに注意してください。逆に、これらの推奨事項とリソースが一部のシナリオでは不十分な場合があることに注意してください。
公開日: 2024 年 10 月 1 日
最終更新日: 2024 年 10 月 1 日