SharePoint サーバーのクローラーには、Robots.txt のディレクティブが無視されます。

現象

次のような状況を考えます。

  • さまざまなサイトをクロールするのにには、Microsoft SharePoint Server 2013 または SharePoint Server 2010 の検索エンジンを使用します。

  • これらのサイトの検索エンジンがクロールするパスを定義するのには、Robots.txt ファイルにディレクティブを使用する必要があります。

  • クローラーの既定のユーザー エージェントは、次のディレクティブを設定します。

    ユーザー エージェント: Mozilla になります。MSIE 4.01 です。Windows NT です。MS 検索 6.0 ロボット)

このシナリオでは、SharePoint サーバーのクロールは、ディレクティブを適用されません。

原因

この問題は、SharePoint サーバーのクロールのエンジンは、デフォルト ユーザー エージェントで、ディレクティブを認識しないために発生します。

解決策

この問題を解決するには、Robots.txt ファイルに次のディレクティブを使用します。

MS Search 6.0 ロボットのユーザー エージェント:

ヘルプを表示

スキルを磨く
トレーニングの探索
新機能を最初に入手
Microsoft Insider に参加する

この情報は役に立ちましたか?

フィードバックをお送りいただきありがとうございます!

フィードバックをお寄せいただき、ありがとうございます。Office サポートの担当者におつなぎいたします。

×