最終更新日: 2023 年 7 月 12 日
Copilot は、大規模言語モデル (LLM) の力と Teams データを組み合わせて、サマリーを提供し、質問にリアルタイムで回答し、職場での生産性を維持するのに役立ちます。
[チャット]:
-
システムによってチャット メッセージが要約されます。 その入力は、それが呼び出された会話からのメッセージで、その出力は概要と主要な要点です。 Copilot を開くと、最新の会話履歴に基づいて既定の概要が自動的に提供されます。 ユーザーは、過去 1 日、7 日間、30 日間の会話を要約することも選択できます。 ユーザーはクエリ (候補またはフリー テキスト) を入力でき、Copilot はチャット履歴に基づいて回答を生成します。 一般的なユース ケースとして、チャットの要約、行われた決定や未解決のアイテムに関する質問に対する回答の取得などがあります。
会議:
-
会議用の Copilot は、会議の文字起こしに基づているため、会議が記録または文字起こしされている場合にのみ機能します。 ユーザーは会議中または会議後にいつでもクエリ (候補または自由テキスト) を入力でき、Copilot は文字起こしに基づいて回答を生成します。 一般的な用途として、会議のメモやアクション アイテムの生成、さまざまな質問への回答、議論された主なアイデアの一覧表示、未解決の質問の一覧表示などがあります。
Teams の Copilot は、チャットおよび会議で利用できます。
-
[チャット]: ユーザーは、チャット ヘッダーの Copilot ボタンを押すことで、手動で Copilot にアクセスできます。 また、ライセンスを持つユーザーが長時間離れた後にチャットに戻った場合、クリック可能なスマート アクションがトリガーされて、概要が役立つ可能性があることをユーザーに通知する場合があります。
-
会議: ユーザーは、会議中に Copilot ボタンを使用して、また会議の後に ([会議の詳細] タブで) Copilot にアクセスできます。 Copilot が機能するには、会議の文字起こしをオンにする必要があります。
Teams の Copilot は、Microsoft 社内の利用データ及び一般からのデータに加え、手動および自動の大規模なテストを通じて評価されました。 不快なプロンプトおよび悪意のあるプロンプト (ユーザーの質問) と回答について、カスタム データセットに対して追加の評価が実施されました。 また、Teams の Copilot は、ユーザーのオンライン フィードバック (サムズ アップとサムズ ダウンのフィードバック機能) を使って常に評価されています。
チャット シナリオでは、Copilot は処理できるデータの量と、回答を取得するために遡ることができる範囲が制限されています。 Copilot が処理のために遡ることができるのは、最大で、最新の送信されたメッセージから 30 日です。 また、アイテム保持ポリシーによってさらに制限される場合もあります。 会議のシナリオでは、(2 時間を超える) 長い会議は、短い会議に比べて、より長い待機時間の影響を受ける可能性があります。
Copilot シナリオでは、多くの言語がサポートされています。 入力が英語の場合は他の言語より品質が高いことが予想されますが、他の言語の場合も時間の経過と共に品質が向上することが予想されます。
Teams Copilot はカスタマイズできません。 管理者は、Microsoft 365 管理 センター経由で有効にする Copilot を選択でき、Teams の Copilot を有効または無効にすることができます。 ユーザーは、自身のニーズに基づいて、Copilot に質問する質問を選択できます。
Teams Copilot は、ユーザーが次の操作を行うときに最も適切に応答します:
-
チャットまたは会議で取り上げたトピックに質問を制限します。 Copilot は、関連のない質問には回答しません。
-
サポートされている言語で話すかチャットします。 Copilot はサポートされている言語で応答しますが、上記のように英語で入力すると応答が向上します。 会議の場合は、トランスクリプトに定義されている言語が音声言語と一致していることを確認します。
-
コンテンツの最新かつ実質的なボリュームが使用可能であることを確認します。 これらの要件が満たされていない場合、Copilot はエラー メッセージを提供します。
Teams の Copilot は、多くの言語をサポートしています。 詳細については、「Microsoft Copilot でサポートされている言語」を参照してください。
Copilot と Microsoft 365 は、セキュリティ、コンプライアンス、プライバシーに対する Microsoft の包括的なアプローチに基づいて構築されています。
プライバシーの詳細については、次の情報を参照してください:
-
(職場または学校アカウントを使用して) 組織内の Copilot for Microsoft 365 を使用している場合は、「Microsoft Copilot for Microsoft 365 のデータ、プライバシー、セキュリティhttps://learn.microsoft.com/microsoft-365-copilot/microsoft-365-copilot-privacy」を参照してください。
-
個人用 Microsoft たアカウントを使用して、Copilot Pro の一部として自宅の Microsoft 365 アプリで Copilot を使用している場合は、「Copilot Pro: Microsoft 365 アプリとプライバシー 」を参照してください。
Teams の生成型 AI 機能は、利用可能なデータに基づいて、正確かつ有益な回答を提供するよう努めています。 しかしながら、回答は言語データのパターンおよび確率に基づいて生成されるため、正確であるとは限りません。 意思決定を行ったり、回答に基づいて行動したりする前に、ユーザー自身で判断し、事実を再確認してください。
これらの機能は、予期しない不快なコンテンツを結果で提供しないようにし、有害な可能性のあるトピックを表示しないように対策を講じますが、それでも予期しない結果が表示される場合があります。 Microsoft では、問題に積極的に対処するために、Microsoft の責任ある AI の原則に沿ってテクノロジの改善に常に取り組んでいます。
生成された回答が正しくない場合、または有害もしくは不適切なコンテンツが表示された場合は、概要でサムズ ダウンをクリックし、フィードバック フォームに追加のコメントを入力して、そのフィードバックを提供してください。 こうしたフィードバックは、今後このようなコンテンツを改善して最小限に抑えるのに役立ちます。