Ich habe mehrere PDF-Dateien auf Wordpress hochgeladen (über Media Uploader), die nicht von Google indiziert werden sollten. Die einzige Lösung, die ich finden konnte, bestand darin, die Dateinamen auf meiner robots.txt
hinzuzufügen und den Robotern das Crawlen dieser Dateien zu verweigern.Hinzufügen von PDF-Dateien zu robots.txt auf Wordpress
Das Problem ist, dass diese Methode eine ständige Aktualisierung meiner robots.txt
Datei erfordert. Das ist keine gute Lösung, wenn mehr Leute an diesem Projekt arbeiten (in diesem Fall Redakteure). Sie werden wahrscheinlich nicht in der Lage sein, die robots.txt
Datei zu aktualisieren.
Gibt es eine Möglichkeit, eine PDF-Datei auf meiner robots.txt dynamisch hinzuzufügen? Vielleicht ein benutzerdefiniertes Feld, in dem, wenn es wahr ist, dann die Datei hinzugefügt wird?
Ein wichtiges Detail: Einige der über den Media Uploader hochgeladenen PDFs sollten indiziert werden. Aber manche sollten nicht. Aus diesem Grund kann ich keine Regel hinzufügen, die alle PDF-Dateien filtert.
verwenden. Möchten Sie ein PDF-Crawling durchführen? Speichern Sie sie in einem Verzeichnis, das Sie ausschließen könnten? – blur0224
Die Datei ist wie jede andere gehostete Datei. Sie könnten ein Skript oder etwas schreiben, um die Datei zu bearbeiten, aber das scheint kompliziert und wahrscheinlich nicht wert. Vielleicht das PDF so speichern, dass es von einer Regel ausgeschlossen werden kann? Entweder in einem separaten Verzeichnis oder durch Namenskonvention? – blur0224