Microsoft アカウントでサインイン
サインインまたはアカウントを作成してください。
こんにちは、
別のアカウントを選択してください。
複数のアカウントがあります
サインインに使用するアカウントを選択してください。
Microsoft 365 Copilot についてよく寄せられる質問

最終更新日: 2023 年 8 月

Copilot は、大規模言語モデル (LLM) の能力と Microsoft Graph のインテリジェンスを組み合わせています。 ビジネス データを使用して、Copilot はドキュメント、電子メール、メッセージからの情報を合成して、概要を提供し、ビジネス上の質問に答え、ファイルやメッセージなどから下書きコンテンツを生成します。

Copilot は、大量のトレーニング データのパターンに基づいて自然言語を模倣する大規模な言語モデルを使用します。 モデルは、人間のフィードバックによる強化学習 (RLHF) を使用して、会話用に最適化されています。これは、人間のデモンストレーションを使用してモデルに望ましい動作を学習させる方法となります。

テキスト プロンプトを Copilot に送信すると、モデルは単語列の次にどのテキストが来るべきかを提案することで応答を生成します。 このモデルは、Microsoft 365 データから検索および合成する情報の種類を指定できるドメイン固有言語 (DSL) に基づいています。 システムは人間の自然なコミュニケーションを模倣するように設計されていますが、出力の不正確性や、古い表現である可能性を念頭に置いておくことが重要です。

自然言語を使用して、Copilot に仕事の質問をしたり、コンテンツの作成を支援したり、トピック、ドキュメント、チャットでの会話の概要を尋ねたりできます。 プロンプトがより具体的であればあるほど、より良い結果が得られます。 

ご活用いただけるプロンプトの例をいくつかご紹介します。

  • John の未読メールを要約してください

  • 自チーム宛てに、前回の会議のアクション アイテムを含むメッセージの下書きを作成してください

  • どのような休暇ポリシーですか?

  • 私は明日誰と会議を行いますか?

Copilot は、Microsoft Graph で利用可能な知識とデータに基づいて、正確で有益な応答を提供するように設計されています。 しかしながら、回答は言語データのパターンおよび確率に基づいて生成されるため、正確であるとは限りません。 回答には可能な場合は参考資料が添付されているため、その情報を確認することが重要です。 Copilot には攻撃的なコンテンツや有害な可能性のあるトピックの共有を避けるためのアフォーダンスがありますが、それでも予期しない結果が発生する可能性があります。 私たちは有害なコンテンツを防ぐ技術の向上に継続的に取り組んでいます。

回答が間違っている場合、または有害または不適切なコンテンツに遭遇した場合は、低評価アイコンを選択し、問題を詳しく説明してフィードバックを提供してください。

品質を保証するために、Copilot にはテスト問題が与えられ、その回答は正確さ、関連性、トーン、知性などの基準に基づいて評価されます。 この評価スコアは、モデルの改良に使用されます。 システムは人間の自然なコミュニケーションを模倣するように設計されていますが、出力の不正確性や誤り、古い表現である可能性を念頭に置いておくことが重要です。 高評価アイコンと低評価アイコンを使用してフィードバックを提供すると、どの回答がユーザーにとって有益で、どの回答が役に立たないかを Copilot に教えることができます。 お客様からのフィードバックを他の Microsoft 365 サービスや Microsoft 365 アプリの改善に使用するのと同様に、このフィードバックを使用して Copilot を改善します。 このフィードバックは、Copilot で使用される基礎モデルのトレーニングには使用されません。 お客様は管理者コントロールを通じてフィードバックを管理できます。 詳細については、組織の Microsoft フィードバックを管理するをご覧ください。 

いいえ、Copilot を使用するために個人アカウントを職場アカウントにリンクする必要はなくなりました。 Bing for Business で Copilot を使用するには、職場アカウントで Microsoft Edge にサインインします。   

Bing for Business で Copilot を使用するには、Microsoft 職場アカウントで Microsoft Edge にサインインする必要があります。 Bing for Consumers を使用するには、個人の Microsoft アカウントで Microsoft Edge にサインインします。 両方を同時に使用したい場合は、2 つの別個のウィンドウで Microsoft Edge を開き、一方に仕事用アカウントでサインインし、もう一方に個人アカウントでサインインする必要があります。   

Copilot と Microsoft 365 は、セキュリティ、コンプライアンス、プライバシーに対する Microsoft の包括的なアプローチに基づいて構築されています。

プライバシーの詳細については、次の情報を参照してください:

AI によって私たちの生活が一変しようとしている今、このテクノロジーの使用と影響に関する新しいルール、規範、慣行をまとめて定義する必要があります。 Microsoft は、2017 年から責任ある AI への取り組みを続けています。Microsoft は、このテクノロジーが、人々を第一に考える倫理的原則によって駆動される方法で使用されるようにするための原則とアプローチを定義してきました。 Microsoft の指針となる倫理的原則、そしてお客様が責任を持って AI を使用できるようにするために Microsoft が作成したツールと機能については、「責任ある AI システム構築のための Microsoft のフレームワーク」https://blogs.microsoft.com/on-the-issues/2022/06/21/microsofts-framework-for-building-ai-systems-responsibly/をご覧ください。

Copilot は、他の Microsoft 365 サービスで使用されているデータ アクセスと同じ基盤となる制御を使用して、各個人がアクセスできるデータのみを示します。 Microsoft 365 テナント内の権限モデルは、ユーザーとグループの間でデータが漏洩しないようにするのに役立ちます。 Microsoft によるお客様のデータの保護方法についての詳細は、「Microsoft プライバシー ステートメント」をご覧ください。

ヘルプを表示

その他のオプションが必要ですか?

サブスクリプションの特典の参照、トレーニング コースの閲覧、デバイスのセキュリティ保護方法などについて説明します。

コミュニティは、質問をしたり質問の答えを得たり、フィードバックを提供したり、豊富な知識を持つ専門家の意見を聞いたりするのに役立ちます。

一般的な問題の解決策を見つけるか、サポート エージェントからサポートを受けます。

この情報は役に立ちましたか?

言語の品質にどの程度満足していますか?
どのような要因がお客様の操作性に影響しましたか?
[送信] を押すと、Microsoft の製品とサービスの改善にフィードバックが使用されます。 IT 管理者はこのデータを収集できます。 プライバシーに関する声明。

フィードバックをいただき、ありがとうございます。

×