Ich habe etwa 100 Seiten auf meiner Website, die ich nicht in Google indiziert werden soll ... gibt es eine Möglichkeit, es zu blockieren mit robots.txt. .It'd sehr ermüdend sein, jede Seite bearbeiten und alle Meta-Tag noindex ....Block 100s der URL von der Suchmaschine mit robots.txt
die Urls, die ich möchte hinzufügen, blockieren, wie geht ...
www.example.com/index-01 .html
www.example.com/index-02.html
www.example.com/index-03.html
www.example.com/index-04.html .
. . .
www.example.com/index-100.html
Nicht sicher aber wird die Zugabe so etwas wie die folgende Arbeit?
User-Agent: *
Disallow: /index-*.html
Wildcards funktionieren nicht im 'Disallow:' Linien, aber man konnte 100 'nicht zulassen hinzu:' Zeilen (eine für jede URL). Was ist das Problem damit? – smarx
Diese Frage scheint off-topic zu sein, da sie nicht im Rahmen der in der Hilfe beschriebenen Diskussion liegt. – Will
@smarx Auf welchen Informationen basieren Sie Ihre Aussage, dass 'Disallow' nicht mit Platzhaltern funktioniert, und was denken Sie über [diesen Artikel] (https://geoffkenyon.com/how-to-use-wildcards-robots- txt/)? –