最終更新日: 2024 年 5 月

Copilot in Bingの基本  

Copilot in BingMicrosoft Copilotになりました。 責任ある AI に対するアプローチについては、「Microsoft Copilotの透明性に関するメモ」のドキュメントを参照してください。 

概要  

2023 年 2 月、Microsoft は AI 強化の Web 検索エクスペリエンスである新しいBingを開始しました。 Web 検索結果を要約し、チャット エクスペリエンスを提供することで、ユーザーをサポートします。 また、詩、ジョーク、ストーリー、Bing Image Creator画像など、クリエイティブなコンテンツを生成することもできます。 新しい AI 強化Bingは、最先端の大規模言語モデル (LLM) である GPT や、OpenAI から自然言語の説明からデジタル 画像を生成するためのディープ ラーニング モデルであるDALL-Eなど、Microsoft と OpenAI のさまざまな高度なテクノロジで実行されます。 パブリック リリースの数か月前から両方のモデルと連携し、この最先端の AI テクノロジと Web 検索に新しいBingに参加するためのカスタマイズされた一連の機能と手法を開発しました。  2023 年 11 月、Microsoft は新しいBingの名前を Copilot in Bing に変更しました。

Microsoft では、責任ある AI へのコミットメントを真剣に受け止めています。 Copilot in Bingエクスペリエンスは、Microsoft の AI 原則、Microsoft責任ある AI Standardに沿って開発され、Microsoft の責任ある AI のオフィス、エンジニアリング チーム、Microsoft Research、Aether など、会社全体の責任ある AI エキスパートと提携しています。 責任ある AI の詳細については、Microsoft のこちらを参照してください。  

このドキュメントでは、Copilot in Bingに対する責任ある AI へのアプローチについて説明します。 リリースに先立ち、システムの潜在的なリスクと誤用を特定、測定、軽減し、ユーザーの利益を確保するための最先端の方法を採用しました。 最初のリリースからCopilot in Bing進化を続けているため、責任ある AI の取り組みについても学習し、改善を続けています。 このドキュメントは、進化するプロセスと方法を伝えるために定期的に更新されます。   

主な用語  

Copilot in Bingは、AI 強化の Web 検索エクスペリエンスです。 強力で新しいテクノロジで実行される場合は、いくつかの重要な用語を定義することから始めます。  

ラベル付けされたクラスまたは情報のカテゴリにデータを並べ替えるのに役立つ機械学習モデル。 Copilot in Bingでは、分類子を使用する方法の 1 つは、そのコンテンツの生成やシステムの誤用や悪用を軽減するために、ユーザーによって送信またはシステムによって生成された有害な可能性のあるコンテンツを検出することです。 

Copilot in Bingは、ユーザーが情報を求めているときに Web 検索結果に固定されます。 つまり、ユーザーのクエリまたはプロンプトに対して提供される応答を Web からの上位のコンテンツに集中させ、ユーザーが詳細を学べるように Web サイトへのリンクを提供します。 Bing は、関連性、品質や信頼性、鮮度などの特徴を重み付けすることで、Web 検索コンテンツをランク付けします。 これらの概念について詳しくは、「Bing検索結果 の配信方法 」をご覧ください (「検索結果のランク付け Bing方法」の「品質と信頼性」を参照してください)。   

根拠のある応答は、クエリやプロンプトからの Web 検索結果、Bingのファクトチェック情報のサポート情報、チャットエクスペリエンスのチャットの最近の会話履歴など、入力ソースに含まれる情報によってステートメントがサポートされるCopilot in Bingからの応答と見なされます。 非固定応答は、ステートメントがそれらの入力ソースに固定されていない応答です。  

このコンテキストの大きな言語モデル (LLM) は、大量のテキスト データでトレーニングされ、シーケンス内の単語を予測する AI モデルです。 LLM は、テキストの生成、要約、翻訳、分類など、さまざまなタスクを実行できます。  

metaprompt は、システムの動作をガイドするためのプログラムです。 メタプロンプトの一部は、システムの動作を Microsoft AI の原則とユーザーの期待に合わせて調整するのに役立ちます。 たとえば、metaprompt には、"ユーザーの選択した言語で通信する" などの行が含まれる場合があります。  

Copilot in Bingでの AI 駆動機能の使用によって生じる可能性のある潜在的なリスクを軽減するように設計された方法または方法の組み合わせ。  

テキスト、音声、画像、またはその他の有効なクエリは、ユーザーがBingで新しい AI 駆動の生成エクスペリエンスを実現するモデルへの入力としてBingに送信します。 たとえば、ユーザーが次のプロンプトを入力する場合があります。  

私は9月に記念日の旅行を計画しています。ロンドン・ヒースロー空港から3時間以内に行ける場所は何ですか?”  

ユーザーが Web 検索用の検索バーからBingに送信するテキスト。 このドキュメントでは、クエリ (Web 検索用) とプロンプト (Bingでの AI 駆動のジェネレーティブ エクスペリエンス) を区別します。 たとえば、ユーザーは次のクエリを入力して Web を検索できます。  

ロンドン・ヒースロー空港に近い」  

専門家がシステムの制限と脆弱性を評価し、計画された軽減策の有効性をテストするために使用される手法。 赤いチームテストとストレステストは、潜在的なリスクを特定するために使用され、リスクの体系的な測定とは異なります。   

プロンプトに応答して出力Copilot in Bingテキスト、画像、グラフなど。 "応答" のシノニムには、"completion"、"generation"、"answer" が含まれます。 たとえば、Bingは、上記の 'prompt' の定義で使用したプロンプトに対して次の応答を提供できます。   

記念日おめでとうございます!ロンドン・ヒースロー空港から3時間以内に行ける場所は数多くあります。ある情報源によると、ロンドンから飛行機で3時間以内に逃げる週末の一部は、ビルバオ、コペンハーゲン、レイキャビク、ストックホルム1、2です。もう一つの情報源は、9月にヨーロッパで行くために最高の場所のいくつかはクラクフ、フィレンツェ、リスボン3、4であることを示唆しています。ロンドン・ヒースロー空港から様々な目的地への直行便をチェックし、あなたに魅力を見ることもできます 5.私はあなたが素晴らしい旅行を持っていることを願っています!”  

意図された用途と新しい AI エクスペリエンス  

Copilot in Bingの目的は、ユーザーを関連する検索結果に結び付け、Web 全体から結果を確認して、ユーザーが探している回答を見つけて要約し、ユーザーがチャット エクスペリエンスで回答を得るために調査を絞り込むのに役立ち、ユーザーがコンテンツを作成できるようにすることで創造性を生み出すことを目的としています。 以下のCopilot in Bingの生成的な AI エクスペリエンスは、Web 用の AI を利用した copilot であるという目標をサポートしています。  

要約。 ユーザーがCopilot in Bingで検索クエリを送信すると、Bing システムはクエリを処理し、1 つ以上の Web 検索を実行し、上位の Web 検索結果を使用して、ユーザーに提示する情報の概要を生成します。 これらの概要には、ユーザーが概要を確認するのに役立つ参照が含まれており、概要の作成に使用される検索結果に簡単にアクセスできます。 概要は、検索結果ページの右側とチャット エクスペリエンス内に表示できます。  

チャット エクスペリエンス。 要約に加えて、ユーザーはテキスト、画像、または音声入力を介してCopilot in Bingシステムとチャットしたり、検索を明確にしたり、新しい情報を見つけたりするためのフォローアップの質問をしたり、クリエイティブなコンテンツを生成するためのプロンプトを送信したりできます。 Copilot in Bingが応答で検索結果を要約している場合、参照もチャット エクスペリエンスに含まれます。   

クリエイティブ コンテンツの生成。 チャットエクスペリエンスと検索ページの両方で、ユーザーはCopilot in Bingの助けを借りて詩、ジョーク、ストーリー、画像、その他のコンテンツを作成できます。  画像はDesigner (旧Bing Image Creator) によって作成され、ユーザーはDesignerホームページと Copilot ページを介して機能にアクセスできます。 

Copilot in Bingのしくみ  

Copilot in Bingでは、最先端の LLM を Web 検索に取り込むための革新的なアプローチを開発しました。 ユーザーがCopilot in Bingでプロンプトを入力すると、プロンプト、最近の会話履歴、メタプロンプト、上位の検索結果が LLM への入力として送信されます。 このモデルでは、ユーザーのプロンプトと最近の会話履歴を使用して応答を生成し、要求をコンテキスト化し、応答を Microsoft AI の原則とユーザーの期待に合わせるメタプロンプト、検索結果を Web からの既存の上位のコンテンツの地上応答に合わせます。   

応答は、Web コンテンツへの従来のリンク、AI によって生成された要約、画像、チャット応答など、さまざまな形式でユーザーに提示されます。 Web 検索結果に依存する要約とチャットの応答には、参照と、応答の下にある "詳細情報" セクションが含まれます。応答を基にした検索結果へのリンクが含まれます。 ユーザーは、これらのリンクをクリックして、トピックの詳細と、概要またはチャットの応答の根拠となる情報を確認できます。    

Copilot エクスペリエンスでは、ユーザーはプロンプトにコンテキストを追加し、システム応答と対話して検索の関心をさらに指定することで、Web 検索を会話的に実行できます。 たとえば、ユーザーがフォローアップの質問をしたり、さらに明確な情報を要求したり、会話形式でシステムに応答したりする場合があります。 チャットエクスペリエンスでは、ユーザーは事前に作成された提案から応答を選択することもできます。これはチャットの提案と呼ばれます。 これらのボタンは Copilot からの各応答の後に表示され、チャット エクスペリエンス内で会話を続行するための推奨されるプロンプトが表示されます。 チャットの候補は、検索結果ページの概要コンテンツと共に、チャット エクスペリエンスのエントリ ポイントとしても表示されます。  

Copilot in Bingでは、ユーザーがBingの助けを借りて、ストーリー、詩、歌の歌詞、画像を作成することもできます。 Copilot in Bingがクリエイティブ コンテンツを生成するユーザーの意図を検出すると (たとえば、プロンプトは "write me a ..."」で始まります)、ほとんどの場合、システムはユーザーのプロンプトに応答するコンテンツを生成します。 同様に、Copilot in Bingがイメージを生成するユーザーの意図を検出すると (たとえば、プロンプトは "draw me a .."で始まります)、システムはほとんどの場合、ユーザーのプロンプトに応答するイメージを生成します。 Visual Search in Chat エクスペリエンスでは、ユーザーのカメラによって撮影された画像、ユーザーのデバイスからアップロードされた画像、または Web からリンクされた画像を使用して、ユーザーはコンテキストの理解、解釈、画像に関する質問への回答をCopilot in Bing求めることができます。  また、ユーザーは Copilot にファイルをアップロードして、情報の解釈、変換、処理、または計算を行うこともできます。 ユーザーがCopilot in Bingを介してアクセスできるMicrosoft Designerエクスペリエンスでは、ユーザーはプロンプトを使用して画像を生成するだけでなく、サイズを変更したり、スタイルを変更したり、背景のぼやけや色の鮮やかさなどの編集を行うことができます。 

Microsoft アカウント (MSA) を持つユーザーは、高速化されたパフォーマンスや AI イメージの作成の高速化など、強化されたエクスペリエンスを提供するCopilot Proをサブスクライブするオプションも提供されるようになりました。 Copilot Proは現在、限られた国で利用でき、近いうちにCopilot Proを利用できるようにする予定です。

Copilot Proの詳細については、こちらを参照してください。

Copilot in Bingは、情報への自由でオープンなアクセスを約束し、多様で包括的な検索結果を提供するよう努めています。 同時に、当社の製品品質の取り組みには、ユーザーに有害な可能性のあるコンテンツを誤って宣伝しないようにする作業が含まれます。 Bingがコンテンツをランク付けする方法 (関連性の定義方法、Web ページの品質と信頼性など) の詳細については、「Bing Webmaster ガイドライン」を参照してください。   Bingのコンテンツ モデレーションの原則の詳細については、「検索結果Bing配信する方法」を参照してください。   

Copilot in Windowsエクスペリエンスでは、Copilot in Bingは Windows オペレーティング システムと連携して、ユーザーのテーマや背景の変更、オーディオ、Bluetooth、ネットワークなどの設定の変更など、Windows 固有のスキルを提供できます。 これらのエクスペリエンスを使用すると、ユーザーは LLM に対する自然言語プロンプトを使用して設定を構成し、ユーザー エクスペリエンスを向上させることができます。 アプリケーション固有の機能は、サードパーティのアプリケーション プラグインから提供することもできます。 これにより、反復的なタスクを自動化し、ユーザーの効率を高めることができます。 LLM は間違いを犯す場合があるため、ユーザーが行うことができる変更の最終的なアービターになるように、適切なユーザー確認プロンプトが提供されます。 

リスクの特定、測定、軽減  

他の変革テクノロジと同様に、AI の利点を活用することはリスクフリーではなく、 Microsoft の責任ある AI プログラムの 中核部分は、潜在的なリスクを特定し、発生する傾向を測定し、それらに対処するための軽減策を構築するように設計されています。 AI 原則と責任ある AI Standardに導かれ、新しいエクスペリエンスが提供する変革的で有益な用途を確保しながら、Copilot in Bingの潜在的なリスクと誤用を特定、測定、軽減しようとしました。 以下のセクションでは、潜在的なリスクを特定、測定、軽減するための反復的なアプローチについて説明します。   

モデルレベルでは、2022年の晩夏にGPT-4の探索的分析から始まりました。 これには、OpenAI とのコラボレーションで大規模な赤いチーム テストを実施する必要があります。 このテストは、追加のセーフガードを適用することなく、最新のテクノロジがどのように機能するかを評価するように設計されています。 現時点での具体的な意図は、有害な応答を生成し、誤用の可能性のある手段を明らかにし、機能と制限事項を特定することでした。 OpenAI と Microsoft の学習を組み合わせることで、モデル開発の進歩に貢献し、Microsoft ではリスクを理解し、Bingでの Copilot の早期軽減戦略に貢献しました。  

モデルレベルの赤いチームテストに加えて、専門家の多分野チームは、限定リリースプレビューで公開する前に、Copilot in Bing AI エクスペリエンスに関するアプリケーションレベルの赤いチームテストを多数実施しました。 このプロセスは、敵対的なアクターによってシステムがどのように悪用されるかをよりよく理解し、軽減策を改善するのに役立ちました。 非敵対的ストレステスターはまた、欠点と脆弱性に関する新しいBing機能を広く評価しました。 リリース後、Bingの新しい AI エクスペリエンスは、Bing エンジニアリング organizationの既存の生産測定およびテスト インフラストラクチャに統合されます。 たとえば、さまざまな地域や背景の赤いチーム テスターは、システムを継続的かつ体系的に侵害しようとします。その結果は、システムの改善に使用Bingデータセットを拡張するために使用されます。  

赤いチーム テストとストレス テストでは、特定のリスクのインスタンスを表示できますが、運用環境のユーザーでは、Copilot in Bingと何百万種類もの会話が行われます。 さらに、会話はマルチターンとコンテキストであり、会話内の有害なコンテンツを特定することは複雑なタスクです。 Copilot in Bing AI エクスペリエンスにおけるリスクの可能性をより深く理解し、対処するために、脱獄、有害なコンテンツ、未解決のコンテンツなどの潜在的なリスクを測定するための、これらの新しい AI エクスペリエンスに固有の責任ある AI メトリックを開発しました。 また、部分的に自動化された測定パイプラインによる大規模な測定も可能になりました。 製品の変更、既存の軽減策の更新、または新しい軽減策が提案されるたびに、製品のパフォーマンスと責任ある AI メトリックの両方を評価するように測定パイプラインを更新します。  

実例として、有害なコンテンツに対する部分的に自動化された測定パイプラインの更新には、会話シミュレーションと人間が検証した自動会話注釈という 2 つの大きなイノベーションが含まれています。 まず、責任ある AI の専門家は、さまざまな種類の有害なコンテンツが発生する可能性がある会話の構造とコンテンツをキャプチャするためのテンプレートを構築しました。 これらのテンプレートは、Copilot in Bingを使用して架空のユーザーとして対話し、シミュレートされた会話を生成する会話エージェントに与えられました。 これらのシミュレートされた会話に有害なコンテンツが含まれているかどうかを特定するために、一般的に専門家の言語学者がデータにラベルを付けるために使用されるガイドラインを取り、GPT-4が大規模に会話にラベルを付けるために使用するように変更し、モデルラベル付けされた会話と人間のラベル付けされた会話の間で大きな一致が得られるまでガイドラインを調整しました。 最後に、モデルラベル付きの会話を使用して、有害なコンテンツを軽減する際のCopilot in Bingの有効性をキャプチャする責任ある AI メトリックを計算しました。   

当社の測定パイプラインにより、潜在的なリスクの測定を大規模に迅速に実行できます。 プレビュー期間と進行中の赤いチーム テストを通じて新しい問題を特定する際は、追加のリスクを評価するために測定セットを引き続き拡張します。  

赤いチームテストやストレステストなどのプロセスを通じて潜在的なリスクと誤用を特定し、上記の革新的なアプローチでそれらを測定するにつれて、従来の検索に使用されるものに対して追加の軽減策を開発しました。 以下に、これらの軽減策の一部について説明します。 製品のパフォーマンスと軽減策を向上させるために、Copilot in Bing AI エクスペリエンスを引き続き監視します。  

段階的なリリース、継続的な評価。 私たちは、テクノロジとユーザーの行動が進化するにつれて、責任ある AI アプローチを継続的に学習し、改善することに取り組んでいます。 増分リリース戦略は、ラボから世界に安全にテクノロジを移行する方法の中核的な部分であり、Copilot in Bingの利点を確保するための慎重で思慮深いプロセスに取り組んでいます。 プレビュー期間中にアクセス権を持つユーザーの数を制限することで、ユーザーがCopilot in Bingを使用する方法を見つけることができ、ユーザーが誤用する可能性があるため、より広範なリリースの前に新たな問題を軽減できます。 たとえば、完全な新しいBing エクスペリエンスにアクセスする前に、ユーザーに自分の Microsoft アカウントを使用した認証を求めています。 認証されていないユーザーは、エクスペリエンスの限定されたプレビューにのみアクセスできます。 これらの手順は、不正行為を阻止し、(必要に応じて) 行動規範違反に対応するための適切な措置を講じるのに役立ちます。  製品のパフォーマンスを向上させ、既存の軽減策を改善し、プレビュー期間中の学習に応じて新しい軽減策を実装するために、毎日Copilot in Bingに変更を加えています。  

検索結果の接地。 前述のように、Copilot in Bingは、ユーザーが情報を求めているときに Web 検索結果の情報でサポートされる応答を提供するように設計されています。 たとえば、システムには、上位の検索結果のテキストと、メタプロンプトを介した命令が提供され、応答が得られます。 ただし、Web からのコンテンツを要約する場合、Copilot in Bingは、その入力ソースに存在しない情報を応答に含めることができます。 言い換えると、未固定の結果が生成される可能性があります。 初期の評価では、数値計算、財務または市場情報 (会社の収益、株式業績データなど) や、イベントの正確な日付やアイテムの特定の価格などの情報など、特定の種類のプロンプトやトピックに対してチャットの未設定の結果が一般的になる可能性が示されています。 ユーザーは常に注意を払い、検索結果ページまたはチャット エクスペリエンスのいずれで集計された検索結果を表示する場合でも、最善の判断を行う必要があります。 要約シナリオやチャット エクスペリエンスで、ユーザーが未設定の生成されたコンテンツに過度に依存するリスクを軽減するために、いくつかの対策を講じていました。 たとえば、検索結果に基づくCopilot in Bingの応答には、ユーザーが応答を確認して詳細を確認するためのソース Web サイトへの参照が含まれます。 また、ユーザーは AI システムと対話していることを明示的に通知し、Web 結果ソース資料をチェックして、最適な判断を行うのに役立てることもできます。  

AI ベースの分類子とメタプロンプティングを使用して、潜在的なリスクや誤用を軽減します。 LLM を使用すると、リスクや誤用につながる可能性のある問題のあるコンテンツが生成される可能性があります。 たとえば、自傷行為、暴力、グラフィック コンテンツ、知的財産、不正確な情報、ヘイトフルな音声、違法行為に関連する可能性のあるテキストに関連する出力が含まれます。 分類子とメタプロンプティングは、これらの種類のコンテンツのリスクを軽減するためにCopilot in Bingで実装されている軽減策の 2 つの例です。 分類子は、検索クエリ、チャット プロンプト、または生成された応答で、有害な可能性のあるさまざまなコンテンツにフラグを設定するためにテキストを分類します。 Bingは、すべての検索結果と関連する機能に適用される AI ベースの分類子とコンテンツ フィルターを使用します。私たちは、Copilot in Bing機能によって発生する可能性のあるリスクに特に対処するために、追加のプロンプト分類子とコンテンツフィルターを設計しました。 フラグは、生成されたコンテンツをユーザーに返さない、ユーザーを別のトピックに転用する、ユーザーを従来の検索にリダイレクトするなど、潜在的な軽減策につながります。 メタプロンプティングでは、Microsoft の AI 原則とユーザーの期待に従ってシステムが動作するようにするなど、モデルの動作をガイドする指示をモデルに提供する必要があります。 たとえば、metaprompt には、"ユーザーの選択した言語で通信する" などの行が含まれる場合があります。   

Copilot in Bingでの Visual Search でのプライバシーの保護。 ユーザーがチャット プロンプトの一部として画像をアップロードすると、Copilot in Bingは AI モデルに画像を送信する前に、顔ぼかし技術を採用します。 顔ぼかしは、画像内の個人のプライバシーを保護するために使用されます。 顔ぼかし技術は、コンテキストの手がかりに依存して、ぼかしを適用する場所を決定し、すべての顔をぼかそうとします。 顔がぼやけていると、AI モデルは入力された画像とインターネット上で一般公開されている画像の画像を比較できます。 その結果、例えば、Copilot in Bingは、選手のジャージ番号、ジャージの色、バスケットボールフープの存在などを反映する数値表現を作成することによって、バスケットボールコート上のその選手の写真から有名なバスケットボール選手を識別することができるCopilot in Bingは、アップロードされた画像からのユーザーの数値表現を格納せず、第三者と共有しません。 Copilot in Bingは、ユーザーのプロンプトに応答する目的でのみユーザーがアップロードした画像の数値表現を使用し、チャット終了後 30 日以内に削除されます。    

ユーザーがアップロードされた画像に関する情報をCopilot in Bing求めた場合、チャット応答は、アップロードされた画像に関する情報を提供するモデルの機能に対する顔ぼかしの影響を反映している可能性があります。 たとえば、Copilot in Bingは、誰かがぼやけた顔を持っていることを表す場合があります。    

会話ドリフトを制限する。 プレビュー期間中に、非常に長いチャット セッションによって、反復的、役に立たない、またはCopilot in Bing意図したトーンと一致しない応答が発生する可能性があることを学習しました。 この会話のずれに対処するために、チャット セッションごとにターン数 (ユーザーの質問とCopilot in Bingからの返信の両方を含む交換) を制限しました。 この問題を軽減するための追加のアプローチを引き続き評価します。  

プロンプト エンリッチメント。 場合によっては、ユーザーのプロンプトがあいまいな場合があります。 この場合、Copilot in Bingは LLM を使用してプロンプトの詳細を作成し、ユーザーが求めている応答を確実に得られるようにすることができます。 このようなプロンプト エンリッチメントは、ユーザーや以前の検索に関する知識に依存するのではなく、AI モデルに依存します。 これらの変更されたクエリはユーザーのチャット履歴に表示され、他の検索と同様に、製品内コントロールを使用して削除できます。  

ユーザー中心の設計とユーザー エクスペリエンスの介入。 ユーザー中心の設計とユーザー エクスペリエンスは、責任ある AI に対する Microsoft のアプローチの不可欠な側面です。 目標は、ユーザーのニーズと期待に製品設計を根付けすることです。 ユーザーが初めてCopilot in Bingと対話する際に、システムの機能を理解し、Copilot in Bingが AI を利用していることをユーザーに開示し、制限事項を伝えるのに役立つさまざまなタッチポイントを提供します。 このエクスペリエンスは、ユーザーがCopilot in Bingを最大限に活用し、過度の依存のリスクを最小限に抑えるように設計されています。 また、エクスペリエンスの要素は、ユーザーがCopilot in Bingとそれに対する相互作用をよりよく理解するのにも役立ちます。 これには、責任ある AI に固有のチャット候補が含まれます (たとえば、Bingはどのように AI を使用しますか? 一部のトピックCopilot in Bing応答しないのはなぜですか?)、制限事項の説明、システムのしくみやフィードバックの報告方法、応答に表示される簡単にナビゲーション可能な参照を使用して、応答が基づいている結果とページをユーザーに表示します。  

AI 開示。 Copilot in Bingでは、ユーザーが AI システムと対話していることをユーザーに通知する意味のある AI 開示のためのタッチポイントと、Copilot in Bingの詳細を学習する機会を提供します。 この知識を持つユーザーを支援することで、AI への過度の依存を回避し、システムの長所と制限事項について学習できます。  

メディアの証明。Microsoft Designerでは、暗号化方法を使用して、Designerに作成されたすべての AI によって生成されたすべてのイメージのソースまたは "プロバンス" をマークする "コンテンツ資格情報" 機能が有効になりました。 非表示のデジタル透かし機能は、元の作成のソース、時刻、日付を示しており、この情報を変更することはできません。 このテクノロジでは、コンテンツと信頼性のための連合 (C2PA) によって設定された標準を使用して、AI によって生成された画像に対する信頼と透明性の追加レイヤーを追加します。 Microsoft は C2PA の共同創設者であり、コア デジタル コンテンツ の実証テクノロジに貢献しています。 

使用条件と行動規範。 このリソースは、Bingでの Copilot の使用を管理します。 ユーザーは 、利用規約と行動規範に従う必要があります。特に、許容される、許容できない使用、および条項違反の結果を通知します。 また、利用規約は、ユーザーに追加の開示を提供し、ユーザーがCopilot in Bingについて学習するための便利なリファレンスとして機能します。   

操作と迅速な対応。 また、Copilot in Bingの継続的な監視および運用プロセスを使用して、Copilot in Bingがシグナルを受信したとき、またはレポートを受信した場合に対処し、利用規約または行動規範の誤用や違反の可能性を示します。  

フィードバック、監視、監視。 Copilot in Bingエクスペリエンスは、ユーザーがフィードバックを送信して懸念事項を報告できる既存のツールに基づいています。これは、Microsoft の運用チームによってレビューされます。 Bingの運用プロセスは、Copilot in Bingエクスペリエンス内の機能に対応するように拡張されています。たとえば、[懸念事項の報告] ページを更新して、ユーザーがモデルの助けを借りて生成する新しい種類のコンテンツを含めます。   

リスクの特定、測定、軽減に関するアプローチは、さらに学習するにつれて進化し続け、プレビュー期間中に収集されたフィードバックに基づいて既に改善されています。     

自動コンテンツ検出。 ユーザーがチャット プロンプトの一部として画像をアップロードすると、Copilot in Bingは、子どもの性的搾取と虐待画像 (CSEAI) 、特に PhotoDNA ハッシュ マッチング テクノロジを検出するためのツールをデプロイします。 Microsoft は、既知の CSEAI の重複を見つけるのに役立つ PhotoDNA を開発しました。 Microsoft は、米国の法律で要求されているように、見かけ上のすべての CSEAI を国立不足児童搾取センター (NCMEC) に報告します。 ユーザーがファイルをアップロードして分析または処理すると、Copilot は自動スキャンを展開して、違法なアクティビティや悪意のあるコードに関連する可能性のあるテキストなど、リスクや誤用につながる可能性のあるコンテンツを検出します。

プライバシーの保護  

プライバシーは基本的な人権であるという Microsoft の長年の信念は、Microsoft のCopilot in Bingエクスペリエンスの開発と展開のあらゆる段階に通知してきました。 個人にデータの透明性と制御を提供し、データの最小化と目的の制限を通じて設計によるプライバシーを統合するなど、すべてのユーザーのプライバシーを保護するという当社のコミットメントは、Copilot in Bingの基礎となります。 Copilot in Bingの生成的な AI エクスペリエンスを提供するアプローチを進化させるにつれて、プライバシーを保護する最善の方法を継続的に探索します。 このドキュメントは、このドキュメントと同様に更新されます。 Microsoft がユーザーのプライバシーを保護する方法の詳細については、「 Microsoft プライバシーに関する声明」を参照してください。  

Copilot in Windowsエクスペリエンスでは、Windows スキルは機能の一部として、チャット会話とユーザー情報を共有できます。 これはユーザーの承認の対象であり、ユーザー情報がチャット会話と共有される前に、ユーザーの意図を確認するための UI プロンプトが表示されます。

Microsoft は、Copilot in Bingの新しいジェネレーティブ AI 機能のリスク評価の一環として、子どもと若者のニーズを引き続き検討しています。 ユーザーを 13 歳未満または現地の法律で指定されているとおりに識別するすべての Microsoft の子アカウントは、完全な新しいBing エクスペリエンスにアクセスするためにサインインできません。   

上記のように、すべてのユーザーに対して、有害な可能性のあるコンテンツを軽減するセーフガードを実装しました。 Copilot in Bingでは、結果はセーフサーチの厳格モードBingのように設定されます。これは、メインBing検索で最高レベルの安全性保護を備えています。そのため、10 代のユーザーを含むユーザーが有害な可能性のあるコンテンツにさらされるのを防ぎます。 このドキュメントで提供した情報とチャット機能に関する FAQ に加えて、検索結果で予期しない不快なコンテンツで応答しないようにCopilot in Bingのしくみの詳細については、こちらを参照してください。  

Microsoft は、Microsoft アカウントの生年月日が 18 歳未満と識別されるお子様に対して、オンライン行動に基づいてパーソナライズされた広告を配信しないことを約束しています。 この重要な保護は、Copilot in Bing機能の広告にも及びます。 ユーザーは、Bingとの対話に使用されるクエリまたはプロンプトに基づいてコンテキスト広告を表示できます。  

ジェネレーティブ AI の変革的な可能性を引き出すには、個人がデータの使用方法を理解し、データに対する有意義な選択肢と制御を提供することで、テクノロジに対する信頼を築く必要があります。 Copilot in Bingは、製品のしくみとその制限事項に関する情報を提供し、堅牢な消費者の選択肢とコントロールをCopilot in Bing機能に拡張することで、人間の機関を優先するように設計されています。   

Microsoft のプライバシーに関する声明は、お客様を保護するための透明性の高いプライバシー プラクティスに関する情報を提供し、ユーザーが個人データを表示および管理できるようにするコントロールに関する情報を設定します。 ユーザーがBingの新しい会話機能と対話するときに必要な情報を確実に得られるようにするために、製品内開示は、AI 製品に関与していることをユーザーに通知し、これらの機能のしくみに関するさらに FAQ と説明へのリンクを提供します。 Microsoft は引き続きユーザーのフィードバックに耳を傾け、製品の動作方法の理解をサポートするために、Bingの会話機能についてさらに詳しく説明します。   

Microsoft は、ユーザーに、個人データに対する権利を行使するための堅牢なツールも提供します。 ユーザーのクエリやプロンプトを通じてなど、Copilot in Bingによって収集されるデータの場合、Microsoft プライバシー ダッシュボードは、認証済み (サインイン) ユーザーに、データ主体の権利を行使するためのツールを提供します。これには、保存されている会話履歴を表示、エクスポート、削除する機能がユーザーに提供されます。 Microsoft は、コンテキスト内のデータ管理エクスペリエンスを使用するなど、新しいBingエクスペリエンスを管理する方法に関するフィードバックを引き続き受け取ります。   

Copilot in Bingは、Microsoft がBingの従来の検索機能のために開発および改良したプロセスに従って、忘れられるヨーロッパの権利に基づく要求も尊重します。 すべてのユーザーは、生成されたコンテンツと応答に関する懸念を ここで報告できます。ヨーロッパのユーザー は、このフォーム を使用して、忘れられる権利の下でヨーロッパの検索結果をブロックする要求を送信できます。   

Copilot in Bingは、以前にBingで行われたものを含む、ユーザーのプライバシーの選択を尊重します。これには、Microsoft プライバシー ダッシュボードで利用できる Cookie バナーやコントロールを通じて要求されたデータ収集と使用に対する同意などがあります。 ユーザーの自律性と機関が情報に基づいた意思決定を行えるようにするために、社内のレビュー プロセスを使用して、ユーザーに選択肢がどのように提示されるかを慎重に調査しました。 

Microsoft プライバシー ダッシュボードで使用できるコントロールに加えて、ユーザーは、チャット履歴のコンポーネントを含む検索履歴を表示、エクスポート、削除できます。製品のチャット履歴機能を有効にした認証済みユーザーは、製品内コントロールを使用してチャット履歴を表示、アクセス、ダウンロードできます。 ユーザーは、[Bing設定] ページにアクセスすることで、チャット履歴から特定のチャットをクリアしたり、チャット履歴機能を完全にオフにしたりできます。 また、ユーザーは、パーソナライズされた回答を使用して、よりカスタマイズされたエクスペリエンスへのアクセスを許可するかどうかを選択することもできます。 ユーザーは、[Bing設定] ページの [チャット設定] で、いつでも個人用設定をオプトインおよびオプトアウトできます。  チャット履歴から特定のチャットをクリアすると、個人用設定に使用できなくなります。    チャットの履歴とパーソナル化の詳細については、「Copilot in Bing FAQ」を参照してください。 

Copilot in Bingはプライバシーを念頭に置いて構築されているため、個人データは必要に応じてのみ収集および使用され、必要以上に保持されません。 前述のように、Copilot in Bing機能の Visual Search は、ユーザーによるアップロード時に画像内の顔をぼかすメカニズムをデプロイして、顔の画像をさらに処理したり保存したりしないようにします。 Bingが収集する個人データ、その使用方法、および保存および削除方法の詳細については、 Microsoft プライバシーに関する声明を参照してください。また、Bingの新しいチャット機能に関する情報も提供します。   

Bingの Copilot には、Bingのチャット機能を通じて収集された個人データが必要な限り保持されるように、データの保持と削除に関するポリシーがあります。   

私たちは、Copilot in Bingを提供するアプローチを学び、進化させ続け、そうすることで、若いユーザーやプライバシーの保護を含む人間の価値と基本的な権利にAIの革新を合わせるために、分野を超えて取り組み続けます。   

商用データ保護を使用した Copilot 

商用データ保護を備えた Copilot (旧称 Bing Chat Enterprise ("BCE") は、特定の M365 顧客向けの無料アドオンとして、2023 年 7 月に Microsoft によって無料パブリック プレビューでリリースされました。 商用データ保護を備えた Copilot は、エンタープライズ エンド ユーザー向けの AI 強化の Web 検索エクスペリエンスです。 

Copilot in Bingと同様に、商用データ保護を使用する Copilot のエンド ユーザーがインターフェイスにプロンプトを入力すると、プロンプト、即時会話、上位検索結果、メタプロンプトが LLM への入力として送信されます。 このモデルでは、プロンプトと即時の会話履歴を使用して応答を生成し、要求をコンテキスト化し、応答を Microsoft AI 原則とユーザーの期待に合わせるメタプロンプト、検索結果を Web からの既存の高ランクコンテンツの地上応答に合わせます。 これは、このドキュメントで説明したように、Bingの Copilot と同じように機能しますが、商用データ保護を使用する Copilot は、保存されたチャット履歴が現在サポートされていないため、即時の会話履歴 (最近の会話履歴ではなく) にのみ依存する例外があります。 このバージョンでは、Designerと Visual Search を使用できるようになりました。 

他の変革テクノロジと同様に、AI の利点を活用することはリスクフリーではなく、Microsoft の責任ある AI プログラムの中核部分は、潜在的なリスクを特定し、発生する傾向を測定し、それらに対処するための軽減策を構築するように設計されています。 繰り返しになりますが、このバージョンでは、Copilot in Bingの潜在的なリスクを特定、測定、軽減するための Microsoft の取り組みに関する上記の説明も、以下で説明する軽減策について説明します。 

段階的なリリース、継続的な評価。 Copilot Bingと同様に、商用データ保護を備えた Copilot についても、増分リリース アプローチを採用しています。 2023 年 7 月 18 日、商用データ保護を備えた Copilot は、特定の M365 アカウントを持つ対象企業のお客様がエンタープライズ エンド ユーザーに対してオンにするための無料プレビューとして利用できるようになりました。 適格なエンタープライズ顧客に通知してから 30 日後、商用データ保護を備えた Copilot は、同じ顧客に対して "既定" になりました。 商用データ保護を備えたCopilotは、それ以来、特定の教育教員M365アカウントでも利用可能になりました。 商用データ保護を備えた Copilot は、2023 年 12 月 1 日に特定のエンタープライズ顧客に一般公開されました。 将来的には、商用データ保護を使用して Copilot へのアクセスを、より多くのMicrosoft Entra IDユーザーに拡大する予定です。

使用条件と行動規範。 商用データ保護を持つ Copilot のエンド ユーザーは、エンド ユーザー利用規約に従う必要があります。 本使用条件は、エンドユーザーに対し、許容される使用および不許容の使用と、条件違反の結果を通知します。  

操作と迅速な対応。 また、Copilot in Bingの継続的な監視および運用プロセスを使用して、商用データ保護を備えた Copilot がシグナルを受信したり、レポートを受信したりして、エンド ユーザー利用規約の誤用や違反の可能性を示す場合に対処します。 

フィードバック、監視、監視。 商用データ保護を備えた Copilot では、ユーザーがフィードバックを送信して懸念事項を報告するためのCopilot in Bingと同じツールが使用されます。これは、Microsoft の運用チームによってレビューされます。 また、Copilot in Bingの運用プロセスは、Copilot 内の機能と商用データ保護エクスペリエンスに対応するように拡張されています。たとえば、[懸念事項の報告] ページを更新して、ユーザーがモデルの助けを借りて生成する新しい種類のコンテンツを含めます。  

エンド ユーザーが商用データ保護を使用して Copilot と対話するときに必要な情報を確実に得られるようにするために、このドキュメントの下部には FAQ ページや詳細情報ページなど、製品ドキュメントが用意されています。 

商用データ保護を使用して Copilot のエンド ユーザーによって生成されたプロンプトと応答は、エンタープライズ データ処理基準に合わせて処理および格納されます。 商用データ保護サービスを備えた Copilot は、現在、エンタープライズのお客様とその認証された大人のエンド ユーザーのみが利用できるため、現時点では、子どもや若者が商用データ保護を持つ Copilot のエンド ユーザーになるとは想定していません。 さらに、商用データ保護を備えた Copilot は、行動的にターゲットを絞った広告をエンド ユーザーに提供しません。 代わりに、表示される広告は、コンテキストに関連する広告のみです。  

詳細情報

このドキュメントは、MICROSOFT が AI の原則を実践するための広範な取り組みの一部です。 詳細については、以下を参照してください。

責任ある AI に対する Microsoft のアプローチ

Microsoft の責任ある AI Standard   

Microsoft の責任ある AI リソース  

責任ある AI に関する Microsoft Azure Learning コース  

このドキュメントについて  

© 2023 Microsoft。 All rights reserved. となります。 このドキュメントは、情報提供のみを目的として"現状のまま" で提供されています。 このドキュメントに記載されている情報およびビュー (URL やその他のインターネット Web サイト参照を含む) は、予告なく変更される場合があります。 指定サイトはお客様ご自身の責任でご利用ください。 一部の例は図専用であり、架空の例です。 実際の関連付けは意図も推論もされません。  

ヘルプを表示

その他のオプションが必要ですか?

サブスクリプションの特典の参照、トレーニング コースの閲覧、デバイスのセキュリティ保護方法などについて説明します。