Kann mir jemand erklären, wie sollte ich eine robots.txt-Datei schreiben, wenn ich, dass alle Root-Crawler indizieren möchten und einige spezifische SubdomainsWie die robots.txt-Datei ordnungsgemäß für Subdomains geschrieben werden sollte?
User-agent: *
Allow:/
Allow: /subdomain1/
Allow: /subdomain2/
Ist das richtig? Und wo soll ich es hinstellen? Im Ordner root (public_html) oder in jedem Subdomain-Ordner?