Ich versuche zu verhindern, dass alle Suchmaschinen Bots auf meine Website zugreifen.Verhindern, dass Bots auf die gehostete Website von GCloud zugreifen
Ich habe gelesen, dass diese Berechtigungen auf robots.txt Datei angegeben werden kann, aber ich bin mir nicht sicher, wo auf diese Datei zugreifen, um sie in Google Cloud zu bearbeiten.
Ich habe meinen Webserver mit Python mit Gcloud entwickelt.
Beachten Sie, dass ich das folgende Thema lesen http://stocksonfire.in/seo/edit-robots-txt-google-cloud-solved/ Allerdings habe ich keine VM-Instanz in meinen Ressourcen gefunden. Muss ich zuerst eine erstellen?
bearbeiten: Dies ist meine app.yaml Datei nach appling @Dac Saunders Vorschlag
runtime: python
env: flex
entrypoint: gunicorn -b :$PORT main:app
runtime_config:
python_version: 3
handlers:
- url: /robots\.txt
static_files: robots.txt
upload: robots\.txt
Seitennotiz: Sie können Roboter nicht wirklich daran hindern, mit 'robots.txt' auf die Site zuzugreifen. Fehlbesetzte können die Datei ignorieren. Siehe http://www.robotstxt.org/faq/blockjustbad.html. –