2016-07-22 5 views
1

Ich habe mehrere PDF-Dateien auf Wordpress hochgeladen (über Media Uploader), die nicht von Google indiziert werden sollten. Die einzige Lösung, die ich finden konnte, bestand darin, die Dateinamen auf meiner robots.txt hinzuzufügen und den Robotern das Crawlen dieser Dateien zu verweigern.Hinzufügen von PDF-Dateien zu robots.txt auf Wordpress

Das Problem ist, dass diese Methode eine ständige Aktualisierung meiner robots.txt Datei erfordert. Das ist keine gute Lösung, wenn mehr Leute an diesem Projekt arbeiten (in diesem Fall Redakteure). Sie werden wahrscheinlich nicht in der Lage sein, die robots.txt Datei zu aktualisieren.

Gibt es eine Möglichkeit, eine PDF-Datei auf meiner robots.txt dynamisch hinzuzufügen? Vielleicht ein benutzerdefiniertes Feld, in dem, wenn es wahr ist, dann die Datei hinzugefügt wird?

Ein wichtiges Detail: Einige der über den Media Uploader hochgeladenen PDFs sollten indiziert werden. Aber manche sollten nicht. Aus diesem Grund kann ich keine Regel hinzufügen, die alle PDF-Dateien filtert.

+0

verwenden. Möchten Sie ein PDF-Crawling durchführen? Speichern Sie sie in einem Verzeichnis, das Sie ausschließen könnten? – blur0224

+0

Die Datei ist wie jede andere gehostete Datei. Sie könnten ein Skript oder etwas schreiben, um die Datei zu bearbeiten, aber das scheint kompliziert und wahrscheinlich nicht wert. Vielleicht das PDF so speichern, dass es von einer Regel ausgeschlossen werden kann? Entweder in einem separaten Verzeichnis oder durch Namenskonvention? – blur0224

Antwort

0

Nach der documentation können Sie nach Verzeichnis oder Dateityp oder beides ausschließen. Solange Sie nicht möchten, dass irgendwelche Dateien gecrawlt werden, können Sie Disallow: /*.pdf

Verwandte Themen