Leider habe ich Fälle, bei denen die Groß- und Kleinschreibung nicht berücksichtigt wird, die nicht kurzfristig ersetzt werden können. Einige Verzeichnisse müssen vom Crawling ausgeschlossen werden, also muss ich sie in meinem in meinem robots.txt
. Nehmen wir /Img/
als Beispiel. Wenn ich das alles Kleinbuchstaben halten ...Sollte ich in der robots.txt verschiedene Groß-/Kleinschreibung für Verzeichnisse verwenden, bei denen die Groß-/Kleinschreibung nicht berücksichtigt wird?
User-agent: *
Disallow: /img/
... wo es sich nicht auf den tatsächlichen physischen Pfad und Adressen mit /Img/
oder /IMG/
sind die Disallow
Richtlinie nicht angewendet. Crawler werden diese Variationen als unterschiedliche Pfade behandeln.
Es macht Spaß, in dieser Angelegenheit Microsoft’s robots.txt zu betrachten. Sie verwenden wahrscheinlich IIS-Server, und SERPs sind nur voll mit unzulässigen Adressen - nur in anderen Fällen.
Was kann ich tun?
Ist es gültig (und wirksam), Folgendes zu sagen?
User-agent: *
Disallow: /Img/
Disallow: /img/
Disallow: /IMG/