注: この記事では、個人の Microsoft アカウントでサインインするときの Microsoft Copilotの使用に関連する年齢制限と保護者による管理に関するトピックについて説明します。  Microsoft 365 Copilotには適用されません。 詳細については、この記事を参照してください。    

お客様の安全とプライバシーに関する事項。 Microsoft Copilot ("Copilot") を使用する場合は、自信を持って情報を得てほしいと思います。 このページは、Copilot のしくみ、どのような保護が実施されているか、責任を持って使用する方法を若者が理解できるように設計されています。 また、両親や保護者が役立つヒントも含まれています。 

人工知能 (AI) とは

人工知能 (AI) は、予測、推奨事項、意思決定、コンテンツの生成、またはユーザーが設定した目標に基づいてアクションを実行する、マシンベースのアプリケーションです。 これは、学習、問題の解決、言い方や入力内容の理解、画像や音の意味を理解できるスマート ソフトウェアと考えてください。 Copilot は、音声命令への応答、情報の分析、テキストの書き込み、画像の作成などを行うことができる AI です。

Copilot を使用できますか?

13 歳から 18 歳までのユーザーは、 国または地域によって異なる最小年齢要件に従って、さまざまな方法で Copilot を使用できます。  たとえば、Copilot を使用して質問をしたり、宿題のヘルプを取得したり、情報を要約したり、アイデアをブレーンストーミングしたり、画像を作成したり、ストーリーを書いたり、新しいことを学んだりすることができます。 

若者の場合、Copilot はデータを異なる方法で使用したり、特定の機能を制限したりする場合があります。 たとえば、Copilot は若者のデータに対して AI モデルをトレーニングせず、パーソナル化などの機能は使用できません。

Copilotを安全に使用するにはどうすればよいですか?

Copilot は役に立ちますが、人ではありません。  Copilot には感情、人生経験、人間の判断がありません。 間違いを犯したり、間違いを犯したり、自分の意味を誤解したりする場合があります。 Copilot が情報を提供する場合、高品質のソースを使用し、引用文献を含むように設計されているため、情報の送信元をチェックできます。 

Copilot には、若者に対する追加の保護が含まれていますが、AI は、信頼できる大人からのアドバイスを受ける代わりに、友人や代替ツールではないことを覚えておく必要があります。 このため、Copilot は AI であることを思い出させ、間違いをチェックすることをお勧めします。

Copilot が生成する内容について不明な場合や、機密情報や重要な情報を扱っている場合は、まず信頼できる大人に相談してください。 これは、親、保護者、教師、またはあなたが頼りにしている別の大人である可能性があります。 彼らは、あなたが物事を考え、AIができない方法で感情的なサポートを提供するのに役立ちます。

覚えて:AI は、あなたの生活の中で信頼できる大人からの助けを求めることに代わるものではありません。

Copilot はどのようにお客様の情報を使用しますか?

Copilot では、入力した内容を使用して、質問に対する応答を生成します。 若い人の場合、Copilot は結果をカスタマイズせず、パーソナライズされた広告を表示せず、モデルトレーニングに会話を使用しません。 つまり、チャットは自分に関するプロファイルを作成するために使用されません。

データを誤用から保護するための措置を講じますが、データをオンラインで共有する際には常にリスクがあります。 また、グループなどの一部の Copilot 機能では、会話を共有した場合やグループに参加した場合に他のユーザーがチャットを表示できる場合があることに注意してください。

Copilot にアップロードするコンテンツに注意し、住所、ログインとパスワード、電話番号、学校情報などの機密情報、機密情報、識別情報を共有したり、他のユーザーに関する識別情報や個人情報を共有したりしないようにしてください。 

Copilot は機密性の高いトピックをどのように処理しますか?

Copilot は、すべてのユーザーに安全で信頼性の高い回答を提供するように設計されていますが、若いユーザーにとっては保護が強化されます。 精神的な健康、物質の使用、成人向けのコンテンツなど、特定の機密性の高いトピックについては、Copilot は、一般的なガイダンスの提供、より安全な情報源への誘導、信頼できる成人との相談の促進など、年齢に適した対応を調整します。

Copilot には、安全を保つために役立つ組み込みのシステムもあります。 特定の種類の危険なコンテンツや有害なコンテンツをチェックし、不適切または安全でないコンテンツへの公開を回避する方法で返信するように設計されています。

安全でないコンテンツや不適切なコンテンツや違法なコンテンツが発生した場合は、 ここで報告することもできます。

Copilot はどのようにプライバシーを保護しますか?

プライバシーは本当に重要です。 Copilot を使用すると、自分の言ったことを分析したり、入力して質問に答えたり、学習したり、作業を行ったりします。 Microsoft は、この情報を保護し、責任を持って使用するよう努めます。 Microsoft は、Copilot を適切に動作させ、安全に保ち、問題が発生したときに問題を解決するために、この情報を保持します。

あなたはコピロットの会話を制御しています。 Copilot にアップロードしない限り、Copilot は写真、メッセージ、またはデバイス上の他の何かへのアクセス権を持ちません。  チャットを保存しない場合は、チャットを削除できます。

18 歳未満の場合、チャットは AI モデルのトレーニングには使用されません。 Copilot の使用中に広告が表示される場合があり、これらの広告は、お客様に関する他の情報ではなく、今求めている内容に基づいています。

自分自身や他のユーザーを保護するために、氏名、住所、パスワード、学校名、他の人に関する個人情報、または自分自身や他の人の画像などの個人情報を共有しないようにしてください。 話し合いまたはアップロードが適切かどうかわからない場合は、常に信頼できる大人と最初にチェックすることをお勧めします。 

Copilot を安全に保つために Microsoft は何をしますか?

Copilot は、Microsoft の責任ある AI アプローチを使用して構築されています。つまり、システムは安全を優先して設計、テスト、監視されます。 Copilot がリリースされる前に、システムの誤用や有害なコンテンツの生成など、リスクを探す専門家による広範なテストを行います。 Copilot では、安全フィルターと明確なルールを使用して、安全でない、攻撃的、または誤解を招くコンテンツが表示される可能性を減らします。 送信するすべてのメッセージは、Copilot が応答する前に、これらのセーフガードによってチェックされます。 

また、Microsoft は、Copilot のパフォーマンスを監視し、ユーザー のフィードバックを確認し、システムを定期的に更新して、時間の経過に伴う精度と安全性を向上させます。 目標は、若い人を含むすべての人にとって、Copilot を役に立ち、安全で透明にすることです。

詳細については、「 Copilot の透明性に関するメモ」を参照してください。 

Copilot による虐待の監視方法

Microsoft は、Copilot を安全に保つために、危険なコンテンツを生成しようとしたり、利用規約を破ったりするなど、有害または虐待的な行動を検出するのに役立つシステムを 使用しています

このような場合、Copilot は要求をブロックしたり、Copilot または特定の機能へのアクセスを制限したりする可能性があります。 人間は、安全性、法的、製品の改善、またはトラブルシューティングのために、Copilot での会話を確認できます。 これらの対策は、ユーザーを保護し、敬意を持って安全な環境を維持するのに役立ちます。 

Copilot にはどのような保護者によるコントロールがありますか?

保護者は、Microsoft Family Safetyやその他のデバイス ベースの保護者によるコントロールなどのツールを使用して、Copilot へのアクセスを管理または制限できる場合があります。 これには、画面制限や Copilot アプリのブロックが含まれる場合があります。 これらの種類のガードレールは、あなたを安全に保つために意図されており、あなたとあなたの家族がオンラインであなたの人生についての会話をするのに役立ちます。

ヘルプを表示

その他のオプションが必要ですか?

サブスクリプションの特典の参照、トレーニング コースの閲覧、デバイスのセキュリティ保護方法などについて説明します。