注: この記事では、Microsoft Copilotに関連するプライバシーと安全性に関するトピックについて説明します。 Entra IDでサインインした場合の Microsoft 365 Copilot の使用には適用されません。 この詳細については、 Enterprise Data Protection に関するページを参照してください。

会話履歴

Copilot の会話は保存されますか?

既定では、 Copilot を含む会話が保存され、過去の会話を表示してアクセスできます。 たとえば、 Copilotを使用して詳細な旅行スケジュールを作成した場合、会話が保存されます。 Copilot アプリで会話 の履歴にアクセス することで、その会話に戻って参照できます。

Copilot 会話はどのように使用されますか?

お客様のプライバシーと信頼は、当社にとって最も重要です。 Microsoft は、問題のトラブルシューティング、バグの診断、悪用の防止、パフォーマンスの監視、分析、改善のために 、Microsoft のプライバシーに関する声明で説明されている限られた目的でのみ会話を使用し、 Copilot 提供します。

お客様が他の目的で会話を使用するかどうかを判断する権限が提供されます。 会話を使用して次の操作を行うことができるかどうかを制御します。

Copilot の会話はどのくらいの期間保存されますか?

既定では、会話は 18 か月間保存されます。 個々の 会話 または 会話履歴全体を いつでも削除できます。

過去の会話を削除できますか?

はい。 Copilotで過去の会話を削除できます。

会話 履歴内の個々の会話を 削除したり、 会話履歴全体を削除したりすることができます。

Copilot 会話は他のユーザーに表示されますか?

いいえ、 Copilot に何も言わないと公開されます。 会話やデータは他のユーザーと共有されることはありません。

ファイルを Copilotと共有すると、プライバシーはどのように保護されますか?

Copilot とファイルを共有する場合 (たとえば、ドキュメントをアップロードし、 Copilot に要約を求めるなど)、ファイルは最大 30 日間安全に保存され、自動的に削除されます。 お客様のプライバシー設定に関係なく、アップロードされたファイルに Copilot 生成モデルはトレーニングされません。 また、ファイルに関するすべての会話は、他の会話と同様に扱われます。モデルのトレーニングとパーソナル化を許可するかどうか、およびいつでも削除できる選択肢が適用されます。

機密性の高いトピックまたは機密性の高いトピックに関する Copilot に関する方法 

この FAQ および Microsoft のプライバシーに関する声明で説明されている目的で Microsoft が使用することを望まない機密または機密の個人データを提供しないでください。 これには、人種、宗教、性的指向、健康状態など、明らかにされる可能性のあるデータが含まれます。 

 会話履歴から、以前の Copilot 会話をいつでも削除できます。 また、Copilot が会話をモデル トレーニングに使用するか、エクスペリエンスをカスタマイズするかを制御することもできます。 

プライバシーまたはデータ保護に関する質問がある場合はどうすればよいですか?

プライバシーに対する Microsoft のコミットメントの詳細については、Microsoft のプライバシーに関する声明プライバシーに関するページを参照してください。

パーソナル化 & メモリ

エクスペリエンス Copilot カスタマイズする方法

パーソナル化が有効になっている場合、 Copilot は会話からの重要な詳細の記憶を開始し、将来の会話でそれらの思い出を使用して、よりカスタマイズされた関連性の高いエクスペリエンスを提供します。

Copilot 私について何を覚えていますか?

パーソナル化が有効になっている場合、 Copilot は、自分の名前、興味、目標など、共有する重要な詳細を記憶します。 Copilot では、人口統計データやその他の機密データは記憶されません。

Copilot が記憶している内容を編集または削除したり、 パーソナル化を完全にオフにしたりすることができます。

自分について覚えている内容を確認、変更、削除 Copilot するにはどうすればよいですか?

Copilot が覚えている内容はいつでも制御できます。

パーソナル化は既定でオンになっていますか?

個人用設定を使用できる場合は、既定でオンになります。 現在、個人用設定は、ブラジル、中国 (香港を除く)、イスラエル、ナイジェリア、韓国、ベトナムのユーザー、または Microsoft アカウントまたはその他のサード パーティ認証を介して Copilot にサインインしていないユーザーには使用できません。

最初に Copilot の使用を開始すると、最初のいくつかの会話の開始時に通知が表示され、その後、個人用設定が有効になっている場合は定期的に通知が表示されます。 個人用設定をチェックまたは変更するには、その通知のリンクをクリックしてオプトアウトするか、Copilot 設定で個人用設定を無効にします

個人用設定をオフにする方法

パーソナル化はいつでも無効にできます。 Copilot でパーソナル化を制御する方法について説明します。 

これらのオプションは、認証されていないユーザーのパーソナル化が無効になっているので、サインインしているユーザーのみが使用できます。 

パーソナル化をオフにすると、 Copilot は会話の思い出を忘れます。 過去の会話は引き続き表示できます。ただし、将来の Copilot エクスペリエンスはパーソナライズされなくなります。 後でパーソナル化を再度有効にした場合、 Copilot は共有した詳細の記憶を開始し、エクスペリエンスのパーソナライズをもう一度開始します。 

Copilot パーソナル化設定は、パーソナライズされた広告を制御しますか?

Copilot のパーソナル化設定では、パーソナライズド広告を受け取るかどうかは制御されません。これは別の選択肢です。 Copilot やその他の該当する Microsoft サービスに適用されるパーソナライズド広告設定は、いつでも変更できます。

一部の国では、 Copilotでパーソナライズされた広告を受け取るかどうかを決定するように求めるプロンプトが表示される場合もあります。 パーソナライズド広告を受信しないことを選択した場合は、パーソナライズされた広告設定または Copilot固有のプロンプトを使用して、パーソナライズされた広告を Copilotでお客様に配信しません。

Copilotでパーソナライズされた広告を配信できる設定が許可されている場合、また、 Copilotの個人用設定が有効になっている場合は、 Copilot の会話履歴を使用して、既に受け取った広告をさらにカスタマイズします。 設定に関係なく、 Copilot は、18 歳未満の認証されたユーザーに対してパーソナライズされた広告を配信しないことに注意してください。

個人用設定をオフにすると、会話の履歴は削除されますか? 

Copilot 設定内では、いつでも個人用設定をオフにできます。 パーソナル化をオフにしても会話の履歴は削除されませんが、 Copilot は会話の思い出を忘れ、エクスペリエンスのパーソナライズを停止します。

Copilot は、機密性の高いトピックに基づいて対話をカスタマイズしますか?

ユーザーの設定に関係なく、 Copilot は、個人の属性 (年齢、性別、人種/民族性、性的指向など)、健康に関連する情報、政治的な所属や好みなど、特定の機密性の高いトピックに基づいて、あなたとのやり取りをパーソナライズしないよう設計されています。 これにより、プライバシーが保護され、潜在的に機密情報が使用されるのを防ぐことができます。 設定で個人用設定が有効になっている場合でも、機密性が高いと見なされる可能性のある過去の会話からコンテンツを除外するための対策が用意されています。

ただし、機密性が高い Copilot と情報を共有する場合は注意してください。 いつでも、Copilotがあなたについて覚えているものを制御することができます。

モデルのトレーニング

"モデル トレーニング" とは

生成 AI とは、データを分析し、パターンを見つけ、これらのパターンを使用して、テキスト、写真、ビデオ、コード、データなどの新しい出力を生成または作成する AI モデルのカテゴリを指します。 生成型 AI モデルの "トレーニング" とは、予測や意思決定を行う際に役立つ情報を提供することを意味します。 トレーニングは、モデルがより適切な結果を提供するのに役立つさまざまなアクティビティを含む広範な概念です。

これらのモデルでは、トレーニング データを使用して、特定の会話を記憶するのではなく、言語の一般的な関係を学習します。 元のトレーニング データを格納したり、アクセスしたりすることはありません。 代わりに、ジェネレーティブ AI モデルは、新しい表現力豊かな作品やコンテンツを生成するように設計されています。

また、これらのモデルが誤ってトレーニング データを再現するのを防ぐための追加の手順を実行します。たとえば、テストの実施や、以前に公開または使用した資料を選別するフィルターの作成などです。

Microsoft がトレーニング Copilotに使用する外部データは何ですか?

Microsoft では、業界標準の機械学習データセットや Web クロール (検索エンジンなど) から収集される、公開されているデータを使用します。 私たちは、ペイウォールを持つソース、ポリシーに違反するコンテンツ、または業界標準の方法を利用してトレーニングをオプトアウトしたサイトを除外します。 これに加えて、米国貿易代表部 (USTR) 偽造および違法コピーの悪名高い市場の一覧に記載されているドメインからのデータについてはトレーニングしません。

Microsoft では、データを使用して AI モデルをトレーニングしていますか?

オプトアウトしたユーザーまたはユーザー の特定のカテゴリ を除き、Microsoft は、AI トレーニングのために、Bing、MSN、 Copilot、および Microsoft 上の広告との対話からのデータを使用します。 これには、識別されていない検索データやニュース データ、広告との対話、 Copilotとの音声とテキストの会話が含まれます。 このデータは、 Copilot やその他の製品やサービスを改善し、ユーザー エクスペリエンスを向上させるために使用されます。

実際のコンシューマー データを使用して基になるジェネレーティブ AI モデルのトレーニングに役立てることで、 Copilot を改善し、より信頼性の高い関連性の高いエクスペリエンスを提供できます。 AI モデルが公開される会話の多様性が高いほど、重要な地域の言語、地域、文化的な参考文献、興味のあるトピックを理解し、他のユーザーに提供しやすくなります。

また、 Copilot が会話をモデル トレーニングに使用するかどうかを制御することもできます。

モデルトレーニングから除外されるデータは何ですか?

次の種類のユーザーからのデータに関する Copilot はトレーニングしません。 

  • 組織のEntra ID アカウントを使用して Copilot にサインインしたユーザー。 詳細については Enterprise Data Protection を参照してください。

  • 個人用またはファミリー サブスクリプションを持つ Microsoft 365 アプリ内の Copilot のユーザー。

  • Copilot にサインインしていないユーザー (Microsoft アカウントまたはその他のサード パーティ認証を使用)。

  • Copilotにサインインしている 18 歳未満のユーザー。

  • モデルトレーニングをオプトアウトしたユーザー。

  • ブラジル、中国 (香港を除く)、イスラエル、ナイジェリア、韓国、ベトナムのユーザー。 つまり、 Copilot は一部の市場で利用できますが、さらに通知されるまで、それらの場所での生成 AI モデルのトレーニングにはユーザー データは使用されません。

また、トレーニングに使用するデータの種類も制限します。 次の場合、AI モデルはトレーニングされません。

  • Microsoft アカウント プロファイル データやメール コンテンツなどの個人アカウント データ。

  • Copilotにアップロードするファイルの内容ですが、ファイルに関する Copilot との会話は、他の会話と同様に処理されます (また、会話に対するモデルトレーニングを許可するかどうかの選択の対象となります)。

  • アップロードされたイメージ内の情報を識別する。 Copilot 会話に画像が含まれている場合は、メタデータやその他の個人データの削除や顔の画像のぼやけなど、画像を識別解除する手順を実行します。

  • 名前、電話番号、デバイスまたはアカウントの識別子、機密性の高い個人データ、物理アドレス、電子メール アドレスなど、お客様を識別する可能性のある情報。

AI モデルのトレーニング時に Microsoft がデータを保護する方法

お客様の当社サービスとの個人的なやりとりは非公開であり、お客様の許可なく開示されません。 AI モデルをトレーニングする前に、名前、電話番号、デバイスまたはアカウント識別子、機密の個人データ、物理アドレス、電子メール アドレスなど、ユーザーを識別する可能性のある情報が削除されます。

お客様のデータは、当社のサービスを使用する場合、非公開のままです。 Microsoft のプライバシーに関する声明で説明されているように、および世界中のプライバシー法に準拠して、お客様の個人データを保護します。

データをモデル トレーニングに使用するかどうかを制御するにはどうすればよいですか?

Microsoft アカウントまたはその他のサード パーティ認証を使用して Copilot にログインしている場合は、 Copilotで使用される生成型 AI モデルのトレーニングに会話を使用するかどうかを制御できます。 オプトアウトすると、オプトバックを選択しない限り、過去、現在、将来の会話がこれらの AI モデルのトレーニングに使用されなくなります。 オプトアウトすると、その変更は 30 日以内にシステム全体に反映されます。

Microsoft アカウントやその他のサード パーティ認証を使用して Copilot にログインしていない場合、会話に関する Copilot はトレーニングされません。

会話をモデル トレーニングに使用するかどうかを制御する方法について説明します。

モデル トレーニングに会話履歴を現在使用していない特定の国のユーザーにモデル トレーニングとオプトアウト コントロールを最終的に拡張する場合があります (「モデル トレーニングから除外されるデータ」を参照してください)。 しかし、消費者に対するこの権利を確実に取得し、世界中の地域のプライバシー法を確実に遵守するために、段階的に行います。

モデル トレーニングをオプトアウトしても、カスタマイズされた Copilot エクスペリエンスを引き続き利用できますか?

はい。モデル トレーニングをオプトアウトしても、パーソナル化を有効にできます。 この場合、 Copilot は会話の重要な詳細を記憶して、よりパーソナライズされた応答を提供しますが、Microsoft は会話を Copilotの生成型 AI モデルのトレーニングに使用しません。

モデル トレーニングは Microsoft 365 に適用されますか?

AI モデルトレーニングは、コンシューマーの Copilot エクスペリエンスに適用されます。 組織のEntra ID アカウントを持つ Copilot のユーザー、および Microsoft 365 コンシューマー ユーザー、または Word、Excel、PowerPoint、Outlook などの Microsoft 365 コンシューマー アプリ内に統合された Copilot 会話は除外されます。 これらの製品のユーザーにはこの設定は表示されず、その会話は、 Copilot やその他の製品で提供されるジェネレーティブ AI モデルのトレーニングには使用されません。

商用のお客様は、業界や世界中でさまざまなコンプライアンス要件を満たしていることを認識しています。 Microsoft は引き続き、これらの組織がテナントの境界やその他のコントロールを使用して、所有するデータを個別に識別および管理できるように支援します。  Microsoft が商用顧客向けのモデル トレーニングを処理する方法の詳細については、「 Enterprise Data Protection」を参照してください。

Copilot 会話は人間によってレビューされますか?

一部の Copilot 会話は、製品の改善とデジタルの安全性を目的とした自動化されたレビューと人間によるレビューの両方の対象となります。 また、 利用規約の行動規範違反としてフラグ付けされた会話をレビューする場合もあります。 当社の行動規範は、不適切なコンテンツや資料を作成または共有するために Copilot サービスを使用することを禁止しています。 一部の会話は、行動規範違反が疑われるとレビューされます。

Copilot の会話を人間がレビューすることをオプトアウトできますか?

行動規範違反が疑われる場合は、調査プロセスの一環として限られた人間のレビューが必要です。 Microsoft のサービスがすべてのユーザーにとって安全かつ安全であることを保証するために、人間によるレビューのオプトアウトは利用できません。

責任ある AI

Microsoft は、 Copilotの責任ある AI にどのようにアプローチしていますか?

Microsoft では、責任ある AI へのコミットメントを真剣に受け止めています。 Copilot は、AI システムが責任を持って開発され、人々の信頼を保証する方法で開発されることを保証するというコミットメントを示す、AI 原則に従って開発されています。 私たちは、人間を中心に保つために Copilot ユーザーエクスペリエンスを設計し、エラーを最小限に抑え、誤用を避けるためにセーフガードを開発し、エクスペリエンスを継続的に改善しています。 Copilot 責任を持って使用する方法の詳細については、利用規約と透明性に関する注意を確認してください。

Copilot どのようにインターネットを使用してその情報源を見つけるのですか?

Copilot は、Web 全体で関連するコンテンツを検索し、見つけた情報を要約して役立つ応答を生成します。 また、ソースを引用しているため、参照するコンテンツへのリンクを表示および探索できます。

Copilotの応答は常に正確ですか?

Copilot は信頼できるソースで対応することを目的としていますが、AI は間違いを犯す可能性があり、インターネット上のサード パーティのコンテンツが常に正確または信頼できるとは限りません。 Copilot は、見つかった情報を誤って表示する可能性があり、説得力はあるものの不完全、不正確、または不適切な応答が表示される場合があります。 Copilotの対応に基づいて意思決定や行動を起こす前に、判断を活用し、事実を二重チェックしてください。 Copilot引用文献を確認することは、精度のチェックを開始するのに良い場所です。

サイトのフィードバックを共有したり懸念事項を報告したりするには、[設定] で [フィードバックを送信] を選択するか、モバイル アプリと Web ページの各応答の下にあるフラグ アイコン Copilot 使用します。 Copilot アプリでは、応答を長押しして [レポート] を選択することもできます。 引き続きフィードバックを確認し、すべてのユーザーに安全な検索エクスペリエンスを提供します。

コンテンツが安全であることを確認するために Copilot どのようなセーフガードが必要ですか?

責任ある AI は旅であり、エクスペリエンスをさらに安全にするために Copilot を継続的に評価し、改善しています。 当社は、 Copilotのトレーニングに使用する情報に厳格なコンテンツ フィルタリングを適用し、対応が提示される前に、潜在的な安全リスクに対する Copilotの対応を評価するための対策を採用しています。 また、不正行為を検出して防止するためのシステムも用意されています。

さらに、 Copilotの安全性とリスク検出能力を向上させるために、外部の研究機関と提携して、 Copilot の会話をレビューおよび評価します。 たとえば、外部の調査組織は、 Copilot 会話ログを確認して、過激なコンテンツを探したり、業界全体の傾向を比較したり、害をより適切に見つけて軽減するための手法をアドバイスしたりするために使用されるさまざまなクエリを理解するのに役立ちます。

安全性に対する当社のアプローチの詳細については、透明性に関するメモを参照してください。

予期しないコンテンツや不快なコンテンツが表示された場合はどうすればよいですか?

予期しない不快なコンテンツを共有したり、有害な可能性のあるトピックに関与したりしないように、 Copilot エクスペリエンスを設計していますが、予期しない結果が表示される場合があります。 当社は常に、有害なコンテンツを防ぐためにテクノロジの改善に取り組んでいます。

有害または不適切なコンテンツが発生した場合は、[設定] で [フィードバックの送信] をクリックしてフィードバックを送信するか、懸念事項を報告するか、モバイル アプリと web ページの各応答の下にあるフラグ アイコン Copilot 使用してください。 Copilot モバイル アプリでは、応答を長押しして [レポート] を選択することもできます。 安全なエクスペリエンスを提供するために、引き続きフィードバックを確認します。

Copilot 会話の人間のレビューによって、エクスペリエンスはどのように向上しますか?

トレーニング済みの AI エキスパートは、 Copilot 会話をレビューして、AI モデルの精度と安全性を構築、評価、向上させることができます。 Microsoft では、ユーザーのプロンプトに対する品質の出力を確保するために、人間のフィードバックを使用して、エクスペリエンスを向上させます。 お客様のデータは、当社のサービスを使用する場合、非公開のままです。 Microsoft のプライバシーに関する声明で説明されているように、および世界中のプライバシー法に準拠して、お客様の個人データを保護します。

時には、Copilotが別の人のように感じることがあります。 この理由は何ですか。

Copilot は、応答性、会話、コンテキストに対応することで、便利なAI アシスタントに設計されています。 日常の言語でチャットしたり、すばやく返信したり、既に共有している情報を参照したりできます。 Copilot を使用すると、質問への回答、情報の検索、記述の支援、タスクのガイドを行うことができます。 Copilotは直感的で支持的な感覚を持つよう開発されました。 これらの特性により、AI アシスタントとの対話は、同僚や友人との自然な会話のように感じることができます。  

しかし、Copilotはツールであり、人ではなく、独自の意見や感情を持っていないことを覚えておくことが重要です。 これは、データ内のパターンを見つけることによって応答を生成し、現実世界の完全なコンテキストを持っていない可能性があるソフトウェア システムです。 Copilot は、特に複雑で感情的な状況や、データが不足している可能性があるその他の領域に対して、常に正しい答えを得るとは限りません。 ここでは、独自の決定を下し、置き換えないようにサポートします。 

時には私のコピロットとの会話は混乱や感情的に重い感じ. どうすればよいですか?

チャットが混乱や感情的に重いと感じる場合は、しばらく時間をかけて一時停止して反映することをお勧めします。 また、Copilot が言ったことややり取りについて感じているかどうかわからない場合は、信頼できる人とチェックすることもできます。これには、友人、家族、コミュニティから知っている人、カウンセラー、その他の専門家が含まれる場合があります。

ヘルプを表示

その他のオプションが必要ですか?

サブスクリプションの特典の参照、トレーニング コースの閲覧、デバイスのセキュリティ保護方法などについて説明します。