Ich weiß, dass die Datei robots.txt verwendet wird, um Web-Crawler von Index-Content-Websites Dritter zu blockieren.Welchen Sinn hat robots.txt in GitHub-Seiten?
Wenn jedoch das Ziel dieser Datei ist, einen privaten Bereich der Website zu begrenzen oder einen privaten Bereich zu schützen, ist der Sinn in versuchen, den Inhalt mit robots.txt ausgeblendet, wenn alle im GitHub-Repository sehen können ?
Meine Frage erweitern die Beispiele mit benutzerdefinierten Domäne.
Gibt es eine Motivation, die Datei robots.txt
innerhalb von GitHub-Seiten zu verwenden? Ja oder Nein? Und warum?
Alternative 1
Für diesen Inhalt effektiv verborgen bleiben, dann Notwendigkeit, für die Website zu zahlen, ist ein eigenes Repository zu bekommen.
Die Motivation ist die gleiche wie bei jeder anderen Website: verhindern Sie, dass Roboter einen Teil davon kriechen. Es hat nichts damit zu tun, dass es privat oder unzugänglich ist: Wenn es privat oder unzugänglich wäre, hätten Roboter sowieso keine Möglichkeit, darauf zuzugreifen. –