2010-02-17 5 views
5

Ich habe kürzlich eine Korrektur implementiert, um separate Zielseiten zu erstellen, abhängig davon, ob der Benutzer JavaScript aktiviert hat oder nicht. Grundsätzlich funktioniert das so.Javascript basierte Umleitung: Wird es SEO weh tun?

Die Standardseite ist eine HTML-Seite ohne Javascript. Basisversion der Site Nach der Landung gibt es ein Skript, das sagt, wenn Javascript aktiviert ist, dann gehe zu einer anderen Seite. Diese Zielseite wird generiert, indem die Benutzeranforderung über eine JSP-Datei gesendet wird, die die Seite rendert (Kopfzeile, Fußzeile usw.). Die letzte Zielseite ist http://whatever.com/home.jsp, wenn der Benutzer JavaScript aktiviert hat.

Meine Frage ist, ob dies SEO verletzt. Bedenkt man, dass 99% der Welt Javascript aktiviert hat, würde ich es hassen, irgendwelche SEO-Vorteile zu kompromittieren, um die 1% zu beherbergen, die Javascript nicht aktivieren.

Hoffe, dass Sinn machen.

Antwort

6

Im Allgemeinen sollten Searchbots als Browser mit JS deaktiviert behandelt werden. Ich denke, du kannst dir jetzt vorstellen, wo sie landen werden.

Diese ganze Frage ist übrigens völlig unabhängig von JSP. Es ist nur eine Serverseite Ansicht Technologie, die eine Vorlage zum Schreiben von HTML/CSS/JS bietet und bietet Funktionen zur dynamischen Kontrolle der Seitenfluss mit Taglibs und Zugriff auf Back-End-Daten mit EL. Alles, was Webbrowser und Bots sehen (und somit alles, was für SEO zählt), ist die generierte HTML-Ausgabe.

1

http://www.google.com/support/webmasters/bin/answer.py?answer=66355

Kurze Version, wenn Ihr JS sie sendet an ganz anderen Inhalt, dann ist es wahrscheinlich schlecht, und Google können Sie eine harte Zeit geben. Ansonsten solltest du gut sein.

+0

Es sieht aus wie Google nur stirnrunzeln auf diese, wenn es täuscht. Senden eines zu einer anderen Seite, wenn Javascript nicht aktiviert ist, "liefert kaum andere Inhalte an Suchmaschinen". Würdest du zustimmen? – bgadoci

+0

Oh, absolut. Deshalb erwähne ich den Teil "ganz anderer Inhalt". Es hängt also alles davon ab, was der Inhalt der beiden Seiten ist. Aus Neugier, warum kann die JSP JS nicht erkennen und den entsprechenden Inhalt rendern? Das würde auch die Möglichkeit von SEO-Problemen lösen. – Dustman

+0

Nicht so vertraut mit JSP. Etwas Interessantes folgte ich Googles Ratschlag zum Testen. Angesichts der oben erwähnten Einrichtung, die http://www.delorie.com/web/lynxview.html verwendete, blieb die Standardsuchmaschinenseite als die grundlegende HTML-Seite (wie der Bot JS nicht aktiviert hatte). Es ging nicht weiter auf die Seite "Wenn Sie Javascript haben".Es wurde zurückversetzt und es wurde nur eine Warnung verwendet, um den Leuten mitzuteilen, dass sie die volle Erfahrung machen können. Danke für die Hilfe. – bgadoci

0

Wenn die alternative Version eine (fast) vollständige Version mit vollem Funktionsumfang ist, dann ist das vollkommen in Ordnung.

Google empfiehlt sogar, Alternativen für Flash-Only-Sites zu erstellen, beispielsweise in Bezug auf die Benutzerfreundlichkeit.

Read google FAQ

0

Sie berühren zwei Themen, eines wird als "Cloaking", das andere als "Duplicate Content" beschrieben. Mit "cloaking" präsentieren Sie verschiedene Inhalte (optimiert mit Bad Intention) basierend auf der Identifizierung des Clients, der darauf zugreift, z. indem Sie den User-Agent-Header prüfen (google-bot vs. Browser). Sie tun dies nicht, Sie möchten Inhalte nur so präsentieren, wie es für Ihren Kunden am besten ist, wie etwa eine Weiterleitung auf einer für mobile Clients optimierten Seite ("m.example.com").

Die andere Sache ist, wie doppelte Inhalte vermieden werden. Es gibt einen Weg, indem Sie die ursprüngliche Inhaltsquelle mit einem kanonischen Tag anzeigen, siehe hier: http://googlewebmastercentral.blogspot.com/2009/02/specify-your-canonical.html

Verwandte Themen