2009-04-05 10 views

Antwort

3

Es ist interessant für Wikipedia, die alle alternativen URLs indexiert haben möchte, z. http://en.wikipedia.org/wiki/Python_language hat die kanonische URL .

Es könnte auch nützlich sein für seitengestützten oder sortierten Inhalt, z.B. /foobar?sorby=date mit kanonischem /foobar.

Persönlich ziehe ich es vor, alle nicht bevorzugten Versionen von Seiten aus dem Index auszuschließen, indem Sie robots.txt Regeln hinzufügen (im Falle von Google ist es einfach, weil es dort reguläre Ausdrücke akzeptiert) und <meta robots>. Es spart mir Bandbreite, und das Ergebnis ist wahrscheinlich das gleiche.

+1

Der Ansatz von robots.txt ist nicht so skalierbar wie die Weiterleitungen von Wikipedia - sie haben Hunderttausende, wenn nicht Millionen von ihnen, und sie können nicht leicht verfälscht werden. – ceejayoz

0

Wenn Sie mehrere Versionen des gleichen Inhalts haben (vielleicht eine Druckansicht oder andere Sortierreihenfolgen), dann scheint es sehr praktisch zu sein. Ich habe es auf ein paar Seiten benutzt - habe aber noch keine Daten, um seine Wirkung zu zeigen.

1

Es ist nützlich, wenn Sie Groß- und Kleinschreibung Web-Server haben, da Links in http://my.site.com/foo.html und http://my.site.com/FOO.html als zwei separate Dokumente, die von Suchmaschinen behandelt würden

Natürlich (also, dass Dokument Seite-Rang zu reduzieren) können Sie Umgehe dies mit einer 301-Weiterleitung zur Version mit niedrigerem Gehäuse, aber mit rel = canonical bedeutet dies, dass deine Benutzer 1 weniger HTTP-Anfrage stellen müssen.

1

Ich benutze den Content-Location Header bereits korrekt. Ich werde es nicht eilig haben, den neuen "Standard" von Google zu implementieren.

+1

Leider sagte Google, dass zu viele Leute es incorrectly benutzen und sie diesen Kopf absichtlich ignorieren:/Was ich denke, ist kurzsichtig, weil viele Leute rel = canonical mit der Zeit falsch benutzen werden und sie diese Daten reparieren müssen sowieso. – Kornel

Verwandte Themen