Crawler SharePoint Server ignoră directive în Robots.txt

Simptome

Să luăm în considerare următorul scenariu:

  • Utilizaţi motorul de căutare Microsoft SharePoint Server 2013 sau SharePoint Server 2010 cu crawlere site-uri diferite.

  • Pentru aceste site-uri, doriți să utilizați directive în fişierul Robots.txt pentru a defini căi care poate accesa cu crawlere de motorul de căutare.

  • Setați următoarea directivă pentru agent utilizator implicit de crawler:

    User-Agent: Mozilla/4.0 (compatible; MSIE 4.01; Windows NT; MS căutare 6.0 Robot)

În acest scenariu, crawler SharePoint Server nu se aplică Directiva.

Cauza

Această problemă apare deoarece motorul de accesare cu crawlere SharePoint Server nu recunoaşte său implicit agent utilizator în directivă.

Rezolvare

Pentru a rezolva această problemă, utilizați următoarea directivă în fişierul Robots.txt:

User-Agent: MS căutare 6.0 Robot

Aveți nevoie de ajutor suplimentar?

Extindeți-vă competențele
Explorați instruirea
Fiți primul care obține noile caracteristici
Alăturați-vă la Microsoft Insider

V-a fost de ajutor această informație?

Vă mulțumim pentru feedback!

Vă mulțumim pentru feedback! Se pare că ar fi util să luați legătura cu unul dintre agenții noștri de asistență Office.

×