2017-12-20 4 views
0

Ich versuche sicherzustellen, dass unsere robots.txt-Datei korrekt ist und würde einige Informationen sehr schätzen. Wir wollen, dass alle Bots in der Lage sind, die Homepage und die "Beispiel-Triallines" zu crawlen und zu indexieren, aber das war's. Hier ist die Datei:Ist unsere robots.txt-Datei korrekt formatiert?

User-agent: * 
Allow: /$ 
Allow: /sample-triallines$ 
Disallow:/

Kann jemand bitte lassen Sie mich wissen, wenn das korrekt ist? Vielen Dank im Voraus.

+1

in Ihrem Index Seite Pfad angeben 'Allow:/$' Feld sonst zulassen und Verbieten auf letzte Zeile sind die gleichen – mehulmpt

+0

Wenn Sie * alle * Bots unterstützen wollen, beachten Sie, dass 'zulassen '(und Zeichen mit spezieller Bedeutung, wie' $ ') sind nicht Teil der robots.txt-Spezifikation, daher unterstützen nicht alle Bots diese. – unor

Antwort

0

Sie können Ihre XML-Sitemap direkt mit einem robots testing tool oder innerhalb der Webmaster-Tools der meisten großen Suchmaschinen (z. B. Google Search Console) testen. Ihre aktuelle robots.txt-Datei funktioniert für die meisten Crawler genau wie die von Ihnen erwähnten URLs (z. B. https://www.example/ und https://www.example/sample-triallines).

Allerdings, wenn Ihre URLs von genau diesen URLs abweichen, werden sie für Crawler blockiert (z. B. Tracking-Parameter). Die folgenden URLs werden zum Beispiel mit der aktuellen robots.txt-Konfiguration blockiert, die für das, woran Sie gerade arbeiten, akzeptabel ist oder nicht.

hoffe, das hilft

Verwandte Themen