5

Der Google Webmaster-Leitfaden erklärt, dass der Webserver Anforderungen für URLs verarbeiten soll, die _escaped_fragment_ enthalten (der Crawler ändert www.example.com/ajax.html#!mystate) www.example.com/ajax.html?_escaped_fragment_=mystate)So stellen Sie sicher, dass der Web-Crawler für die in AWS S3 gehostete Website arbeitet und AJAX verwendet

http://support.google.com/webmasters/bin/answer.py?hl=en&answer=174992

Meine Seite auf AWS S3 befindet und ich habe keinen Webserver solche Anfragen zu bearbeiten. Wie kann ich sicherstellen, dass der Crawler Feed erhält und meine Website indexiert wird?

Antwort

1

S3 gehostete Sites sind statische HTML. Kein POST-Handling, kein PHP-Rendering, kein Nichts ... Warum interessieren Sie sich für die Google-Indexierung von AJAX-Sites?

Für eine statische Website laden Sie einfach die wohlgeformten Dateien robots.txt und sitemap.xml in Ihren Root-Pfad hoch.

Verwandte Themen