メイン コンテンツへスキップ
サポート
Microsoft アカウントでサインイン
サインインまたはアカウントを作成してください。
こんにちは、
別のアカウントを選択してください。
複数のアカウントがあります
サインインに使用するアカウントを選択してください。

最終更新日: 2024 年 2 月

Bingの Copilot の基本   

概要  

2023 年 2 月、Microsoft は AI 強化の Web 検索エクスペリエンスである新しいBingを開始しました。 Web 検索結果を要約し、チャット エクスペリエンスを提供することで、ユーザーをサポートします。 また、詩、ジョーク、ストーリー、Bing Image Creator画像など、クリエイティブなコンテンツを生成することもできます。 新しい AI 強化Bingは、GPT-4、最先端の大規模言語モデル (LLM)、DALL-Eなど、Microsoft と OpenAI のさまざまな高度なテクノロジで実行されます。このモデルは、どちらも OpenAI から自然言語の説明からデジタル 画像を生成するためのディープ ラーニング モデルです。 パブリック リリースの数か月前から両方のモデルと連携し、この最先端の AI テクノロジと Web 検索に新しいBingに参加するためのカスタマイズされた一連の機能と手法を開発しました。  2023 年 11 月、Microsoft は新しいBingの名前を Bing の Copilot に変更しました。

Microsoft では、責任ある AI へのコミットメントを真剣に受け止めています。 Bingエクスペリエンスの Copilot は、Microsoft の AI 原則、Microsoft の責任ある AI Standard に沿って開発され、Microsoft の責任ある AI のオフィス、エンジニアリング チーム、Microsoft Research、Aether など、会社全体の責任ある AI エキスパートと提携しています。 責任ある AI の詳細については、Microsoft のこちらを参照してください。  

このドキュメントでは、Bingでの Copilot に対する責任ある AI へのアプローチについて説明します。 リリースに先立ち、システムの潜在的なリスクと誤用を特定、測定、軽減し、ユーザーの利益を確保するための最先端の方法を採用しました。 最初のリリース以来、Bingで Copilot を進化させ続けているため、責任ある AI の取り組みについても学習し、改善を続けています。 このドキュメントは、進化するプロセスと方法を伝えるために定期的に更新されます。   

主な用語  

Bingの Copilot は、AI 強化の Web 検索エクスペリエンスです。 強力で新しいテクノロジで実行される場合は、いくつかの重要な用語を定義することから始めます。  

ラベル付けされたクラスまたは情報のカテゴリにデータを並べ替えるのに役立つ機械学習モデル。 Bingの Copilot では、分類子を使用する方法の 1 つは、ユーザーによって送信された、またはシステムによって生成された有害な可能性のあるコンテンツを検出し、そのコンテンツの生成とシステムの誤用または悪用を軽減することです。 

Bingの Copilot は、ユーザーが情報を求めているときに Web 検索結果に根付きます。 つまり、ユーザーのクエリまたはプロンプトに対して提供される応答を Web からの上位のコンテンツに集中させ、ユーザーが詳細を学べるように Web サイトへのリンクを提供します。 Bing は、関連性、品質や信頼性、鮮度などの特徴を重み付けすることで、Web 検索コンテンツをランク付けします。 これらの概念について詳しくは、「Bing Search結果を提供する方法」を参照してください (「結果のランク Search付け方法」の「品質と信頼性」Bing を参照してください)。   

根拠のある応答は、クエリやプロンプトからの Web 検索結果、ファクトチェック情報のサポート情報、チャットエクスペリエンスの場合はチャットからの最近の会話履歴など Bing、入力ソースに含まれる情報によってステートメントがサポートされるBingでの Copilot からの応答であると見なされます。 非固定応答は、ステートメントがそれらの入力ソースに固定されていない応答です。  

このコンテキストの大きな言語モデル (LLM) は、大量のテキスト データでトレーニングされ、シーケンス内の単語を予測する AI モデルです。 LLM は、テキストの生成、要約、翻訳、分類など、さまざまなタスクを実行できます。  

metaprompt は、システムの動作をガイドするためのプログラムです。 メタプロンプトの一部は、システムの動作を Microsoft AI の原則とユーザーの期待に合わせて調整するのに役立ちます。 たとえば、metaprompt には、"ユーザーの選択した言語で通信する" などの行が含まれる場合があります。  

Bingでの Copilot での AI 駆動機能の使用によって生じる可能性のある潜在的なリスクを軽減するために設計された方法または方法の組み合わせ。  

テキスト、音声、画像、またはその他の有効なクエリは、ユーザーがBingで新しい AI 駆動の生成エクスペリエンスを実現するモデルへの入力としてBingに送信します。 たとえば、ユーザーが次のプロンプトを入力する場合があります。  

私は9月に記念日の旅行を計画しています。ロンドン・ヒースロー空港から3時間以内に行ける場所は何ですか?”  

ユーザーが Web 検索用の検索バーからBingに送信するテキスト。 このドキュメントでは、クエリ (Web 検索用) とプロンプト (Bingでの AI 駆動のジェネレーティブ エクスペリエンス) を区別します。 たとえば、ユーザーは次のクエリを入力して Web を検索できます。  

ロンドン・ヒースロー空港に近い」  

専門家がシステムの制限と脆弱性を評価し、計画された軽減策の有効性をテストするために使用される手法。 赤いチームテストとストレステストは、潜在的なリスクを特定するために使用され、リスクの体系的な測定とは異なります。   

Bingの Copilot がプロンプトに応答して出力するテキスト、画像、グラフなど。 "応答" のシノニムには、"completion"、"generation"、"answer" が含まれます。 たとえば、Bingは、上記の 'prompt' の定義で使用したプロンプトに対して次の応答を提供できます。   

記念日おめでとうございます!ロンドン・ヒースロー空港から3時間以内に行ける場所は数多くあります。ある情報源によると、ロンドンから飛行機で3時間以内に逃げる週末の一部は、ビルバオ、コペンハーゲン、レイキャビク、ストックホルム1、2です。もう一つの情報源は、9月にヨーロッパで行くために最高の場所のいくつかはクラクフ、フィレンツェ、リスボン3、4であることを示唆しています。ロンドン・ヒースロー空港から様々な目的地への直行便をチェックし、あなたに魅力を見ることもできます 5.私はあなたが素晴らしい旅行を持っていることを願っています!”  

意図された用途と新しい AI エクスペリエンス  

Bingの目的の用途における Copilot は、ユーザーを関連する検索結果に結び付け、Web 全体から結果を確認して、ユーザーが探している回答を見つけて要約し、ユーザーが調査を絞り込んでチャット エクスペリエンスで回答を得るのを支援し、ユーザーがコンテンツを作成できるようにすることで創造性を生み出します。 以下のBingの生成的な AI エクスペリエンスの Copilot は、Web 用の AI を活用した copilot であるという目標をサポートしています。  

要約。 ユーザーがBingで Copilot で検索クエリを送信すると、Bing システムはクエリを処理し、1 つ以上の Web 検索を実行し、上位の Web 検索結果を使用して、ユーザーに提示する情報の概要を生成します。 これらの概要には、ユーザーが概要を確認するのに役立つ参照が含まれており、概要の作成に使用される検索結果に簡単にアクセスできます。 概要は、検索結果ページの右側とチャット エクスペリエンス内に表示できます。  

チャット エクスペリエンス。 要約に加えて、ユーザーはテキスト、画像、または音声入力を介してBingシステムでCopilotとチャットしたり、検索を明確にしたり、新しい情報を見つけたりするためのフォローアップの質問をしたり、クリエイティブなコンテンツを生成するためのプロンプトを送信したりできます。 Bingの Copilot が応答で検索結果を要約している場合、チャット エクスペリエンスにも参照が含まれます。   

クリエイティブ コンテンツの生成。 チャットエクスペリエンスと検索ページの両方で、ユーザーはBingでCopilotの助けを借りて詩、ジョーク、ストーリー、画像、その他のコンテンツを作成できます。  画像はDesigner (旧Bing Image Creator) によって作成され、ユーザーはホームページと Copilot ページDesigner使用してこの機能にアクセスできます。 

Bingの Copilot のしくみ  

Bingで Copilot を使用して、最先端の LLM を Web 検索に取り込むための革新的なアプローチを開発しました。 ユーザーがBingで Copilot でプロンプトを入力すると、プロンプト、最近の会話履歴、メタプロンプト、上位の検索結果が LLM への入力として送信されます。 このモデルでは、ユーザーのプロンプトと最近の会話履歴を使用して応答を生成し、要求をコンテキスト化し、応答を Microsoft AI の原則とユーザーの期待に合わせるメタプロンプト、検索結果を Web からの既存の上位のコンテンツの地上応答に合わせます。   

応答は、Web コンテンツへの従来のリンク、AI によって生成された要約、画像、チャット応答など、さまざまな形式でユーザーに提示されます。 Web 検索結果に依存する要約とチャットの応答には、参照と、応答の下にある "詳細情報" セクションが含まれます。応答を基にした検索結果へのリンクが含まれます。 ユーザーは、これらのリンクをクリックして、トピックの詳細と、概要またはチャットの応答の根拠となる情報を確認できます。    

Copilot エクスペリエンスでは、ユーザーはプロンプトにコンテキストを追加し、システム応答と対話して検索の関心をさらに指定することで、Web 検索を会話的に実行できます。 たとえば、ユーザーがフォローアップの質問をしたり、さらに明確な情報を要求したり、会話形式でシステムに応答したりする場合があります。 チャットエクスペリエンスでは、ユーザーは事前に作成された提案から応答を選択することもできます。これはチャットの提案と呼ばれます。 これらのボタンは Copilot からの各応答の後に表示され、チャット エクスペリエンス内で会話を続行するための推奨されるプロンプトが表示されます。 チャットの候補は、検索結果ページの概要コンテンツと共に、チャット エクスペリエンスのエントリ ポイントとしても表示されます。  

BingのCopilotでは、ユーザーがBingの助けを借りて、物語、詩、歌の歌詞、画像を作成することもできます。 Bingの Copilot がクリエイティブ コンテンツを生成するユーザーの意図を検出すると (たとえば、プロンプトは "write me a .."で始まります)、ほとんどの場合、システムはユーザーのプロンプトに応答するコンテンツを生成します。 同様に、Bingの Copilot でイメージを生成するユーザーの意図が検出されると (たとえば、プロンプトは "draw me a ..." で始まります)、ほとんどの場合、システムはユーザーのプロンプトに応答するイメージを生成します。 チャット エクスペリエンスの Visual Searchでは、ユーザーのカメラによって撮影された画像、ユーザーのデバイスからアップロードされた画像、または Web からリンクされた画像を使用して、Bingで Copilot に対してコンテキストの理解、解釈、画像に関する質問への回答を求めることができます。  また、ユーザーは Copilot にファイルをアップロードして、情報の解釈、変換、処理、または計算を行うこともできます。 ユーザーがBingで Copilot を介してアクセスできるMicrosoft Designerエクスペリエンスでは、ユーザーはプロンプトを使用して画像を生成するだけでなく、サイズを変更したり、スタイルを変更したり、背景のぼやけや色の鮮やかさなどの編集を行うことができます。 

Microsoft アカウント (MSA) を持つユーザーは、高速化されたパフォーマンス、高速な AI イメージの作成、すぐに独自の Copilot GPT を作成する機能など、強化されたエクスペリエンスを提供するCopilot Proにサブスクライブするオプションも提供されるようになりました。 Copilot Proは現在、限られた国で利用でき、近いうちにCopilot Proを利用できるようにする予定です。

Copilot エクスペリエンスでは、ユーザーは Copilot GPT にアクセスできます。 copilot GPT は、Designer GPT と同様に、フィットネス、旅行、料理など、ユーザーにとって特に関心のあるトピックに関する Microsoft Copilot のカスタム バージョンであり、あいまいなアイデアや一般的なアイデアをテキストや画像を含む出力でより具体的なプロンプトに変えるのに役立ちます。 Copilot では、使用可能な Copilot GPT が表示され、Copilot Pro アカウントを持つユーザーは間もなく Copilot GPT Builder にアクセスできるようになります。これは、ユーザーがカスタム Copilot GPT を作成して構成できる機能です。 Bingの Copilot に関して前述した責任ある AI 軽減策は、Copilot GPT に適用されます。

Copilot Pro GPT と Copilot GPT のしくみの詳細については、こちらを参照してください。

BingのCopilotは、情報への自由でオープンなアクセスへのコミットメントを持つ多様で包括的な検索結果を提供するよう努めています。 同時に、当社の製品品質の取り組みには、ユーザーに有害な可能性のあるコンテンツを誤って宣伝しないようにする作業が含まれます。 Bingがコンテンツをランク付けする方法 (関連性の定義方法、Web ページの品質と信頼性など) の詳細については、「Bing Webmaster ガイドライン」を参照してください。   Bingのコンテンツ モデレーションの原則の詳細については、「検索結果Bing配信する方法」を参照してください。   

Windows エクスペリエンスの Copilot では、Bingの Copilot は、Windows オペレーティング システムと連携して、ユーザーのテーマや背景の変更、オーディオ、Bluetooth、ネットワークなどの設定の変更など、Windows 固有のスキルを提供できます。 これらのエクスペリエンスを使用すると、ユーザーは LLM に対する自然言語プロンプトを使用して設定を構成し、ユーザー エクスペリエンスを向上させることができます。 アプリケーション固有の機能は、サードパーティのアプリケーション プラグインから提供することもできます。 これにより、反復的なタスクを自動化し、ユーザーの効率を高めることができます。 LLM は間違いを犯す場合があるため、ユーザーが行うことができる変更の最終的なアービターになるように、適切なユーザー確認プロンプトが提供されます。 

リスクの特定、測定、軽減  

他の変革テクノロジと同様に、AI の利点を活用することはリスクフリーではなく、 Microsoft の責任ある AI プログラムの 中核部分は、潜在的なリスクを特定し、発生する傾向を測定し、それらに対処するための軽減策を構築するように設計されています。 当社の AI 原則と責任ある AI 標準に導かれ、新しいエクスペリエンスが提供する変革的で有益な用途を確保しながら、Bingにおける Copilot の潜在的なリスクと誤用を特定、測定、軽減しようとしました。 以下のセクションでは、潜在的なリスクを特定、測定、軽減するための反復的なアプローチについて説明します。   

モデルレベルでは、2022年の晩夏にGPT-4の探索的分析から始まりました。 これには、OpenAI とのコラボレーションで大規模な赤いチーム テストを実施する必要があります。 このテストは、追加のセーフガードを適用することなく、最新のテクノロジがどのように機能するかを評価するように設計されています。 現時点での具体的な意図は、有害な応答を生成し、誤用の可能性のある手段を明らかにし、機能と制限事項を特定することでした。 OpenAI と Microsoft の学習を組み合わせることで、モデル開発の進歩に貢献し、Microsoft ではリスクを理解し、Bingでの Copilot の早期軽減戦略に貢献しました。  

モデルレベルの赤いチームテストに加えて、専門家の学際的なチームは、限定リリースプレビューで公開する前に、Bing AIエクスペリエンスでCopilotで多数のアプリケーションレベルの赤いチームテストを実施しました。 このプロセスは、敵対的なアクターによってシステムがどのように悪用されるかをよりよく理解し、軽減策を改善するのに役立ちました。 非敵対的ストレステスターはまた、欠点と脆弱性に関する新しいBing機能を広く評価しました。 リリース後、Bingの新しい AI エクスペリエンスは、Bing エンジニアリング organizationの既存の生産測定およびテスト インフラストラクチャに統合されます。 たとえば、さまざまな地域や背景の赤いチーム テスターは、システムを継続的かつ体系的に侵害しようとします。その結果は、システムの改善に使用Bingデータセットを拡張するために使用されます。  

赤いチームテストとストレステストは、特定のリスクのインスタンスを表面化させることができますが、運用環境のユーザーは、BingでCopilotと何百万もの異なる種類の会話を行うことになります。 さらに、会話はマルチターンとコンテキストであり、会話内の有害なコンテンツを特定することは複雑なタスクです。 Bing AIエクスペリエンスにおける Copilot のリスクの可能性をより深く理解し、対処するために、脱獄、有害なコンテンツ、未解決のコンテンツなどの潜在的なリスクを測定するための、これらの新しい AI エクスペリエンスに固有の責任ある AI メトリックを開発しました。 また、部分的に自動化された測定パイプラインによる大規模な測定も可能になりました。 製品の変更、既存の軽減策の更新、または新しい軽減策が提案されるたびに、製品のパフォーマンスと責任ある AI メトリックの両方を評価するように測定パイプラインを更新します。  

実例として、有害なコンテンツに対する部分的に自動化された測定パイプラインの更新には、会話シミュレーションと人間が検証した自動会話注釈という 2 つの大きなイノベーションが含まれています。 まず、責任ある AI の専門家は、さまざまな種類の有害なコンテンツが発生する可能性がある会話の構造とコンテンツをキャプチャするためのテンプレートを構築しました。 これらのテンプレートは、Bingで Copilot と架空のユーザーとして対話し、シミュレートされた会話を生成する会話エージェントに与えられました。 これらのシミュレートされた会話に有害なコンテンツが含まれているかどうかを特定するために、一般的に専門家の言語学者がデータにラベルを付けるために使用されるガイドラインを取り、GPT-4が大規模に会話にラベルを付けるために使用するように変更し、モデルラベル付けされた会話と人間のラベル付けされた会話の間で大きな一致が得られるまでガイドラインを調整しました。 最後に、モデルラベル付きの会話を使用して、有害なコンテンツを軽減する際のBingにおける Copilot の有効性をキャプチャする責任ある AI メトリックを計算しました。   

当社の測定パイプラインにより、潜在的なリスクの測定を大規模に迅速に実行できます。 プレビュー期間と進行中の赤いチーム テストを通じて新しい問題を特定する際は、追加のリスクを評価するために測定セットを引き続き拡張します。  

赤いチームテストやストレステストなどのプロセスを通じて潜在的なリスクと誤用を特定し、上記の革新的なアプローチでそれらを測定するにつれて、従来の検索に使用されるものに対して追加の軽減策を開発しました。 以下に、これらの軽減策の一部について説明します。 製品のパフォーマンスと軽減策を改善するために、Bing AIエクスペリエンスで Copilot を引き続き監視します。  

段階的なリリース、継続的な評価。 私たちは、テクノロジとユーザーの行動が進化するにつれて、責任ある AI アプローチを継続的に学習し、改善することに取り組んでいます。 増分リリース戦略は、テクノロジをラボから世界に安全に移行する方法の中核的な部分であり、Bingで Copilot の利点を確保するための慎重で思慮深いプロセスに取り組んでいます。 プレビュー期間中にアクセス権を持つユーザーの数を制限することで、Bingで Copilot を使用する方法を見つけ出すことができました。これには、ユーザーが誤用する可能性があるため、より広範なリリースの前に新たな問題を軽減することができます。 たとえば、完全な新しいBing エクスペリエンスにアクセスする前に、ユーザーに自分の Microsoft アカウントを使用した認証を求めています。 認証されていないユーザーは、エクスペリエンスの限定されたプレビューにのみアクセスできます。 これらの手順は、不正行為を阻止し、(必要に応じて) 行動規範違反に対応するための適切な措置を講じるのに役立ちます。  製品のパフォーマンスを向上させ、既存の軽減策を改善し、プレビュー期間中の学習に応じて新しい軽減策を実装するために、毎日Bingで Copilot に変更を加えています。  

検索結果の接地。 前述のように、Bingの Copilot は、ユーザーが情報を求めているときに Web 検索結果の情報でサポートされる応答を提供するように設計されています。 たとえば、システムには、上位の検索結果のテキストと、メタプロンプトを介した命令が提供され、応答が得られます。 ただし、Web からのコンテンツを要約する場合、Bingの Copilot は、その入力ソースに存在しない情報を応答に含めることができます。 言い換えると、未固定の結果が生成される可能性があります。 初期の評価では、数値計算、財務または市場情報 (会社の収益、株式業績データなど) や、イベントの正確な日付やアイテムの特定の価格などの情報など、特定の種類のプロンプトやトピックに対してチャットの未設定の結果が一般的になる可能性が示されています。 ユーザーは常に注意を払い、検索結果ページまたはチャット エクスペリエンスのいずれで集計された検索結果を表示する場合でも、最善の判断を行う必要があります。 要約シナリオやチャット エクスペリエンスで、ユーザーが未設定の生成されたコンテンツに過度に依存するリスクを軽減するために、いくつかの対策を講じていました。 たとえば、検索結果に基づくBingの Copilot での応答には、ユーザーが応答を確認して詳細を確認するためのソース Web サイトへの参照が含まれます。 また、ユーザーは AI システムと対話していることを明示的に通知し、Web 結果ソース資料をチェックして、最適な判断を行うのに役立てることもできます。  

AI ベースの分類子とメタプロンプティングを使用して、潜在的なリスクや誤用を軽減します。 LLM を使用すると、リスクや誤用につながる可能性のある問題のあるコンテンツが生成される可能性があります。 たとえば、自傷行為、暴力、グラフィック コンテンツ、知的財産、不正確な情報、ヘイトフルな音声、違法行為に関連する可能性のあるテキストに関連する出力が含まれます。 分類子とメタプロンプティングは、これらの種類のコンテンツのリスクを軽減するために、Bingで Copilot で実装されている軽減策の 2 つの例です。 分類子は、検索クエリ、チャット プロンプト、または生成された応答で、有害な可能性のあるさまざまなコンテンツにフラグを設定するためにテキストを分類します。 Bingは、すべての検索結果と関連する機能に適用される AI ベースの分類子とコンテンツ フィルターを使用します。私たちは、Bing機能でCopilotによって発生する可能性のあるリスクに対処するために、特別に追加のプロンプト分類子とコンテンツフィルタを設計しました。 フラグは、生成されたコンテンツをユーザーに返さない、ユーザーを別のトピックに転用する、ユーザーを従来の検索にリダイレクトするなど、潜在的な軽減策につながります。 メタプロンプティングでは、Microsoft の AI 原則とユーザーの期待に従ってシステムが動作するようにするなど、モデルの動作をガイドする指示をモデルに提供する必要があります。 たとえば、metaprompt には、"ユーザーの選択した言語で通信する" などの行が含まれる場合があります。   

Bingの Copilot の Visual Searchでのプライバシーの保護。 ユーザーがチャット プロンプトの一部として画像をアップロードすると、Bingの Copilot は、AI モデルに画像を送信する前に、顔ぼかし技術を採用します。 顔ぼかしは、画像内の個人のプライバシーを保護するために使用されます。 顔ぼかし技術は、コンテキストの手がかりに依存して、ぼかしを適用する場所を決定し、すべての顔をぼかそうとします。 顔がぼやけていると、AI モデルは入力された画像とインターネット上で一般公開されている画像の画像を比較できます。 その結果、例えば、BingのCopilotは、選手のジャージ番号、ジャージの色、バスケットボールフープの存在などを反映する数値表現を作成することによって、バスケットボールコート上のその選手の写真から有名なバスケットボール選手を識別することができるかもしれません。BingのCopilotは、アップロードされた画像からの人々の数値表現を格納せず、第三者と共有しません。 Bingの Copilot は、ユーザーのプロンプトに応答する目的でのみユーザーがアップロードする画像の数値表現を使用し、チャットが終了してから 30 日以内に削除されます。    

ユーザーがアップロードされた画像に関する情報をBingで Copilot に求めた場合、チャット応答は、アップロードされた画像に関する情報を提供するモデルの機能に対する顔ぼかしの影響を反映している可能性があります。 たとえば、Bingの Copilot は、誰かが顔がぼやけていると説明する場合があります。    

会話ドリフトを制限する。 プレビュー期間中に、非常に長いチャット セッションにより、Bing意図したトーンで繰り返し応答、役に立たない応答、または Copilot との整合性が一致しない可能性があることを学習しました。 この会話のずれに対処するために、チャット セッションごとにターン数 (ユーザーの質問とBingの Copilot からの返信の両方を含む交換) を制限しました。 この問題を軽減するための追加のアプローチを引き続き評価します。  

プロンプト エンリッチメント。 場合によっては、ユーザーのプロンプトがあいまいな場合があります。 この場合、Bingの Copilot は LLM を使用してプロンプトの詳細を作成し、ユーザーが求めている応答を確実に得られるようにすることができます。 このようなプロンプト エンリッチメントは、ユーザーや以前の検索に関する知識に依存するのではなく、AI モデルに依存します。 これらの変更されたクエリはユーザーのチャット履歴に表示され、他の検索と同様に、製品内コントロールを使用して削除できます。  

ユーザー中心の設計とユーザー エクスペリエンスの介入。 ユーザー中心の設計とユーザー エクスペリエンスは、責任ある AI に対する Microsoft のアプローチの不可欠な側面です。 目標は、ユーザーのニーズと期待に製品設計を根付けすることです。 ユーザーが初めてBingで Copilot とやり取りする際に、システムの機能を理解し、Bingの Copilot が AI を利用していることを開示し、制限事項を伝えるのに役立つさまざまなタッチポイントを提供します。 このエクスペリエンスは、ユーザーがBingで Copilot を最大限に活用し、過度の依存のリスクを最小限に抑えるように設計されています。 また、このエクスペリエンスの要素は、ユーザーがBingでの Copilot とその操作をよりよく理解するのにも役立ちます。 これには、責任ある AI に固有のチャット候補が含まれます (たとえば、Bingはどのように AI を使用しますか? Bing 一部のトピックで Copilot が応答しないのはなぜですか?)、制限事項の説明、システムのしくみとフィードバックの報告方法、応答に表示されるナビゲーション可能な参照を簡単に参照して、応答が基づいている結果とページをユーザーに表示します。  

AI 開示。 Bingの Copilot は、ユーザーが AI システムと対話していることをユーザーに通知される意味のある AI 開示のためのタッチポイントと、Bingで Copilot の詳細を学習する機会を提供します。 この知識を持つユーザーを支援することで、AI への過度の依存を回避し、システムの長所と制限事項について学習できます。  

メディアの証明。Microsoft Designerでは、暗号化方法を使用して、Designerに作成されたすべての AI によって生成されたすべてのイメージのソースまたは "プロバンス" をマークする "コンテンツ資格情報" 機能が有効になりました。 非表示のデジタル透かし機能は、元の作成のソース、時刻、日付を示しており、この情報を変更することはできません。 このテクノロジでは、コンテンツと信頼性のための連合 (C2PA) によって設定された標準を使用して、AI によって生成された画像に対する信頼と透明性の追加レイヤーを追加します。 Microsoft は C2PA の共同創設者であり、コア デジタル コンテンツ の実証テクノロジに貢献しています。 

使用条件と行動規範。 このリソースは、Bingでの Copilot の使用を管理します。 ユーザーは 、利用規約と行動規範に従う必要があります。特に、許容される、許容できない使用、および条項違反の結果を通知します。 利用規約はまた、ユーザーに追加の開示を提供し、ユーザーがBingでCopilotについて学ぶのに便利なリファレンスとして機能します。   

操作と迅速な対応。 また、Bingの継続的な監視および運用プロセスでは、Bingの Copilot がシグナルを受信したとき、またはレポートを受け取ったときに対処するために、 使用条件または行動規範の誤用または違反の可能性を示す Copilot を使用します。  

フィードバック、監視、監視。 Bingエクスペリエンスの Copilot は、ユーザーがフィードバックを送信し、Microsoft の運用チームによってレビューされる懸念事項を報告できる既存のツールに基づいています。 また、Bingの運用プロセスは、Bingエクスペリエンスの Copilot 内の機能に対応するように拡張されています。たとえば、[ 懸念事項の報告 ] ページを更新して、ユーザーがモデルの助けを借りて生成する新しい種類のコンテンツを含めます。   

リスクの特定、測定、軽減に関するアプローチは、さらに学習するにつれて進化し続け、プレビュー期間中に収集されたフィードバックに基づいて既に改善されています。     

自動コンテンツ検出。 ユーザーがチャット プロンプトの一部として画像をアップロードすると、Bingの Copilot は、子どもの性的搾取や虐待画像 (CSEAI) 、特に PhotoDNA ハッシュ マッチング テクノロジを検出するためのツールをデプロイします。 Microsoft は、既知の CSEAI の重複を見つけるのに役立つ PhotoDNA を開発しました。 Microsoft は、米国の法律で要求されているように、見かけ上のすべての CSEAI を国立不足児童搾取センター (NCMEC) に報告します。 ユーザーがファイルをアップロードして分析または処理すると、Copilot は自動スキャンを展開して、違法なアクティビティや悪意のあるコードに関連する可能性のあるテキストなど、リスクや誤用につながる可能性のあるコンテンツを検出します。

プライバシーの保護  

プライバシーは基本的な人権であるという Microsoft の長年の信念は、Bingエクスペリエンスにおける Copilot の Microsoft の開発と展開のすべての段階に通知してきました。 データの透明性と制御を個人に提供し、データの最小化と目的の制限を通じて設計によるプライバシーを統合するなど、すべてのユーザーのプライバシーを保護するという当社のコミットメントは、Bingの Copilot の基礎となります。 Bingの生成的な AI エクスペリエンスで Copilot を提供するアプローチを進化させるにつれて、プライバシーを保護する最善の方法を継続的に探索します。 このドキュメントは、このドキュメントと同様に更新されます。 Microsoft がユーザーのプライバシーを保護する方法の詳細については、「 Microsoft プライバシーに関する声明」を参照してください。  

Windows エクスペリエンスの Copilot では、Windows スキルは機能の一部として、チャットの会話とユーザー情報を共有できます。 これはユーザーの承認の対象であり、ユーザー情報がチャット会話と共有される前に、ユーザーの意図を確認するための UI プロンプトが表示されます。

Microsoft は、Bingでの Copilot の新しいジェネレーティブ AI 機能のリスク評価の一環として、子どもと若者のニーズを引き続き検討しています。 ユーザーを 13 歳未満または現地の法律で指定されているとおりに識別するすべての Microsoft の子アカウントは、完全な新しいBing エクスペリエンスにアクセスするためにサインインできません。   

上記のように、すべてのユーザーに対して、有害な可能性のあるコンテンツを軽減するセーフガードを実装しました。 Bingの Copilot では、メイン Bing検索で最高レベルの安全性保護を備えた SafeSearch の Strict モードBingのように結果が設定されるため、10 代のユーザーを含むユーザーが有害な可能性のあるコンテンツにさらされるのを防ぎます。 このドキュメントおよびチャット機能に関する FAQ で提供した情報に加えて、検索結果で予期しない不快なコンテンツに対応しないようにするために、Bingでの Copilot のしくみの詳細については、 こちらを参照してください。  

Microsoft は、Microsoft アカウントの生年月日が 18 歳未満と識別されるお子様に対して、オンライン行動に基づいてパーソナライズされた広告を配信しないことを約束しています。 この重要な保護は、Bing機能の Copilot の広告にも及びます。 ユーザーは、Bingとの対話に使用されるクエリまたはプロンプトに基づいてコンテキスト広告を表示できます。  

ジェネレーティブ AI の変革的な可能性を引き出すには、個人がデータの使用方法を理解し、データに対する有意義な選択肢と制御を提供することで、テクノロジに対する信頼を築く必要があります。 BingのCopilotは、製品のしくみとその制限事項に関する情報を提供し、堅牢な消費者の選択肢とコントロールをBing機能のCopilotに拡張することで、人間の機関を優先するように設計されています。   

Microsoft のプライバシーに関する声明は、お客様を保護するための透明性の高いプライバシー プラクティスに関する情報を提供し、ユーザーが個人データを表示および管理できるようにするコントロールに関する情報を設定します。 ユーザーがBingの新しい会話機能と対話するときに必要な情報を確実に得られるようにするために、製品内開示は、AI 製品に関与していることをユーザーに通知し、これらの機能のしくみに関するさらに FAQ と説明へのリンクを提供します。 Microsoft は引き続きユーザーのフィードバックに耳を傾け、製品の動作方法の理解をサポートするために、Bingの会話機能についてさらに詳しく説明します。   

Microsoft は、ユーザーに、個人データに対する権利を行使するための堅牢なツールも提供します。 ユーザーのクエリやプロンプトなど、Bingで Copilot によって収集されたデータの場合、 Microsoft プライバシー ダッシュボード では、ユーザーに保存された会話履歴を表示、エクスポート、削除する機能を提供するなど、データ主体の権利を行使するためのツールを認証済み (サインイン) ユーザーに提供します。 Microsoft は、コンテキスト内のデータ管理エクスペリエンスを使用するなど、新しいBingエクスペリエンスを管理する方法に関するフィードバックを引き続き受け取ります。   

また、Bingの Copilot は、Microsoft がBingの従来の検索機能のために開発および改良したプロセスに従って、忘れられるヨーロッパの権利に基づく要求を受け入れています。 すべてのユーザーは、生成されたコンテンツと応答に関する懸念を ここで報告できます。ヨーロッパのユーザー は、このフォーム を使用して、忘れられる権利の下でヨーロッパの検索結果をブロックする要求を送信できます。   

Bingの Copilot は、以前にBingで行われたものを含む、ユーザーのプライバシーの選択を尊重します。これには、Microsoft プライバシー ダッシュボードで利用できる Cookie バナーやコントロールを通じて要求されたデータ収集と使用に対する同意などがあります。 ユーザーの自律性と機関が情報に基づいた意思決定を行えるようにするために、社内のレビュー プロセスを使用して、ユーザーに選択肢がどのように提示されるかを慎重に調査しました。 

Microsoft プライバシー ダッシュボードで使用できるコントロールに加えて、ユーザーは、チャット履歴のコンポーネントを含む検索履歴を表示、エクスポート、削除できます。製品のチャット履歴機能を有効にした認証済みユーザーは、製品内コントロールを使用してチャット履歴を表示、アクセス、ダウンロードできます。 ユーザーは、[Bing設定] ページにアクセスすることで、チャット履歴から特定のチャットをクリアしたり、チャット履歴機能を完全にオフにしたりできます。 また、ユーザーは、パーソナライズされた回答を使用して、よりカスタマイズされたエクスペリエンスへのアクセスを許可するかどうかを選択することもできます。 ユーザーは、[Bing設定] ページの [チャット設定] で、いつでも個人用設定をオプトインおよびオプトアウトできます。  チャット履歴から特定のチャットをクリアすると、個人用設定に使用できなくなります。  
 
チャットの履歴とパーソナル化の詳細については、Copilot のユーザーにBing FAQ を参照 してください。 

BingのCopilotはプライバシーを念頭に置いて構築されているため、個人データは必要に応じてのみ収集および使用され、必要以上に保持されません。 前述のように、Bing機能の Copilot の Visual Searchは、ユーザーによるアップロード時に画像内の顔をぼかすメカニズムをデプロイし、顔の画像をさらに処理したり保存したりしないようにします。 Bingが収集する個人データ、その使用方法、および保存および削除方法の詳細については、 Microsoft プライバシーに関する声明を参照してください。また、Bingの新しいチャット機能に関する情報も提供します。   

Bingの Copilot には、Bingのチャット機能を通じて収集された個人データが必要な限り保持されるように、データの保持と削除に関するポリシーがあります。   

私たちは、BingでCopilotを提供するアプローチを学び、進化させ続け、そうすることで、若いユーザーやプライバシーの保護を含む人間の価値と基本的な権利にAIイノベーションを合わせるために、分野を超えて取り組み続けます。   

商用データ保護を使用した Copilot 

商用データ保護を備えた Copilot (旧称 Bing Chat Enterprise ("BCE") は、特定の M365 顧客向けの無料アドオンとして、2023 年 7 月に Microsoft によって無料パブリック プレビューでリリースされました。 商用データ保護を備えた Copilot は、エンタープライズ エンド ユーザー向けの AI 強化の Web 検索エクスペリエンスです。 

Bingの Copilot と同様に、商用データ保護エンド ユーザーがインターフェイスにプロンプトを入力すると、プロンプト、即時会話、上位検索結果、メタプロンプトが LLM への入力として送信されます。 このモデルでは、プロンプトと即時の会話履歴を使用して応答を生成し、要求をコンテキスト化し、応答を Microsoft AI 原則とユーザーの期待に合わせるメタプロンプト、検索結果を Web からの既存の高ランクコンテンツの地上応答に合わせます。 これは、このドキュメントで説明したように、Bingの Copilot と同じように機能しますが、商用データ保護を使用する Copilot は、保存されたチャット履歴が現在サポートされていないため、即時の会話履歴 (最近の会話履歴ではなく) にのみ依存する例外があります。 このバージョンでは、Designerと Visual Searchを使用できるようになりました。 

他の変革テクノロジと同様に、AI の利点を活用することはリスクフリーではなく、Microsoft の責任ある AI プログラムの中核部分は、潜在的なリスクを特定し、発生する傾向を測定し、それらに対処するための軽減策を構築するように設計されています。 ここでも、Bingでの Copilot の潜在的なリスクを特定、測定、軽減するための Microsoft の取り組みの上記の説明も、このバージョンに適用されます。次に説明する軽減策について説明します。 

段階的なリリース、継続的な評価。 Copilot Bingと同様に、商用データ保護を備えた Copilot についても、増分リリース アプローチを採用しています。 2023 年 7 月 18 日、商用データ保護を備えた Copilot は、特定の M365 アカウントを持つ対象企業のお客様がエンタープライズ エンド ユーザーに対してオンにするための無料プレビューとして利用できるようになりました。 適格なエンタープライズ顧客に通知してから 30 日後、商用データ保護を備えた Copilot は、同じ顧客に対して "既定" になりました。 商用データ保護を備えたCopilotは、それ以来、特定の教育教員M365アカウントでも利用可能になりました。 商用データ保護を備えた Copilot は、2023 年 12 月 1 日に特定のエンタープライズ顧客に一般公開されました。 将来的には、商用データ保護を使用して Copilot へのアクセスを、より多くのMicrosoft Entra IDユーザーに拡大する予定です。

使用条件と行動規範。 商用データ保護を持つ Copilot のエンド ユーザーは、エンド ユーザー利用規約に従う必要があります。 本使用条件は、エンドユーザーに対し、許容される使用および不許容の使用と、条件違反の結果を通知します。  

操作と迅速な対応。 また、Bingの継続的な監視および運用プロセスで Copilot を使用して、商用データ保護を備えた Copilot がシグナルを受信した場合、またはレポートを受け取ったときに対処します。これは、エンド ユーザー利用規約の誤用や違反の可能性を示しています。 

フィードバック、監視、監視。 商用データ保護を備えた Copilot では、ユーザーがフィードバックを送信し、Microsoft の運用チームによってレビューされた懸念事項を報告するために、Bingの Copilot と同じツールが使用されます。 また、Bingの運用プロセスの Copilot は、商用データ保護エクスペリエンスを備えた Copilot 内の機能に対応するように拡張されています。たとえば、[懸念事項の報告] ページを更新して、ユーザーがモデルの助けを借りて生成する新しい種類のコンテンツを含めます。  

エンド ユーザーが商用データ保護を使用して Copilot と対話するときに必要な情報を確実に得られるようにするために、このドキュメントの下部には FAQ ページや詳細情報ページなど、製品ドキュメントが用意されています。 

商用データ保護を使用して Copilot のエンド ユーザーによって生成されたプロンプトと応答は、エンタープライズ データ処理標準に合わせて処理され、格納されます。 商用データ保護サービスを備えた Copilot は、現在、エンタープライズのお客様とその認証された大人のエンド ユーザーのみが利用できるため、現時点では、子どもや若者が商用データ保護を持つ Copilot のエンド ユーザーになるとは想定していません。 さらに、商用データ保護を備えた Copilot は、行動的にターゲットを絞った広告をエンド ユーザーに提供しません。 代わりに、表示される広告は、コンテキストに関連する広告のみです。  

詳細情報

このドキュメントは、MICROSOFT が AI の原則を実践するための広範な取り組みの一部です。 詳細については、以下を参照してください。

責任ある AI に対する Microsoft のアプローチ

Microsoft の責任ある AI Standard

Microsoft の責任ある AI リソース  

責任ある AI に関する Microsoft Azure Learning コース  

このドキュメントについて  

© 2023 Microsoft。 All rights reserved. このドキュメントは、情報提供のみを目的として"現状のまま" で提供されています。 このドキュメントに記載されている情報およびビュー (URL やその他のインターネット Web サイト参照を含む) は、予告なく変更される場合があります。 使用するリスクを負います。 一部の例は図専用であり、架空の例です。 実際の関連付けは意図も推論もされません。  

ヘルプを表示

その他のオプションが必要ですか?

サブスクリプションの特典の参照、トレーニング コースの閲覧、デバイスのセキュリティ保護方法などについて説明します。

コミュニティは、質問をしたり質問の答えを得たり、フィードバックを提供したり、豊富な知識を持つ専門家の意見を聞いたりするのに役立ちます。

この情報は役に立ちましたか?

言語の品質にどの程度満足していますか?
どのような要因がお客様の操作性に影響しましたか?
[送信] を押すと、Microsoft の製品とサービスの改善にフィードバックが使用されます。 IT 管理者はこのデータを収集できます。 プライバシーに関する声明。

フィードバックをいただき、ありがとうございます。

×