Angenommen, ich habe eine Website unter http://example.com. Ich würde wirklich gerne zulassen, dass Bots die Homepage sehen, aber jede andere Seite muss blockiert werden, da es für Spider sinnlos ist. Mit anderen WortenSo richten Sie eine robot.txt ein, die nur die Standardseite einer Site zulässt
http://example.com & http://example.com/ soll erlaubt werden, aber http://example.com/anything und http://example.com/someendpoint.aspx sollen blockiert werden.
Ferner wäre es toll, wenn ich bestimmte Abfrage-Strings auf die Homepage erlauben können Passthrough: http://example.com?okparam=true
aber nicht http://example.com?anythingbutokparam=true