Der Google Webmaster-Leitfaden erklärt, dass der Webserver Anforderungen für URLs verarbeiten soll, die _escaped_fragment_ enthalten (der Crawler ändert www.example.com/ajax.html#!mystate) www.example.com/ajax.html?_escaped_fragment_=mystate)So stellen Sie sicher, dass der Web-Crawler für die in AWS S3 gehostete Website arbeitet und AJAX verwendet
http://support.google.com/webmasters/bin/answer.py?hl=en&answer=174992
Meine Seite auf AWS S3 befindet und ich habe keinen Webserver solche Anfragen zu bearbeiten. Wie kann ich sicherstellen, dass der Crawler Feed erhält und meine Website indexiert wird?