2017-06-16 5 views
-1

Ich habe etwa 100 Seiten auf meiner Website, die ich nicht in Google indiziert werden soll ... gibt es eine Möglichkeit, es zu blockieren mit robots.txt. .It'd sehr ermüdend sein, jede Seite bearbeiten und alle Meta-Tag noindex ....Block 100s der URL von der Suchmaschine mit robots.txt

die Urls, die ich möchte hinzufügen, blockieren, wie geht ...

www.example.com/index-01 .html

www.example.com/index-02.html

www.example.com/index-03.html

www.example.com/index-04.html .

. . .

www.example.com/index-100.html

Nicht sicher aber wird die Zugabe so etwas wie die folgende Arbeit?

User-Agent: * 
Disallow: /index-*.html 
+0

Wildcards funktionieren nicht im 'Disallow:' Linien, aber man konnte 100 'nicht zulassen hinzu:' Zeilen (eine für jede URL). Was ist das Problem damit? – smarx

+4

Diese Frage scheint off-topic zu sein, da sie nicht im Rahmen der in der Hilfe beschriebenen Diskussion liegt. – Will

+0

@smarx Auf welchen Informationen basieren Sie Ihre Aussage, dass 'Disallow' nicht mit Platzhaltern funktioniert, und was denken Sie über [diesen Artikel] (https://geoffkenyon.com/how-to-use-wildcards-robots- txt/)? –

Antwort

0
Yes it will work using wildcard 

Ref : "https://geoffkenyon.com/how-to-use-wildcards-robots-txt" 
+0

Von dem, was ich finden kann, unterstützt Google diese, aber sie sind nicht Standard und nicht unbedingt von anderen Crawlern unterstützt. – smarx

+0

Mithilfe einiger Online-Tools können Sie überprüfen, ob Ihre robots.txt-Regeln vom Googlebot unterstützt werden. Versuchen Sie es mit einem Schlag https://technicalseo.com/seo-tools/robots-txt/ – Mamallan

+0

Ich möchte Google nur von der Indexierung aus blockieren Vielen Dank für die Hilfe. –