0

ich bin immer wütend über ein Problem mit unserer Facebook-OG-Stichworte und weder von Google nore keiner meiner Kollegen konnte mir noch helfen. Das Problem ist: Wir haben eine TYPO3-Erweiterung verwenden öffnen Graphic Meta-Tags genau in dem Format Facebook Forderungen in seinen Best-Practice-Regeln zu generieren. Also auf unserer Homepage sehen die Meta-Tags wie folgt aus:Facebook kanonische URL führt zu keiner kriechen auf allen

<meta property="fb:app_id" content="1076994975680778" /> 
<meta property="og:title" content="Startseite" /> 
<meta property="og:type" content="website" /> 
<meta property="og:image" content="https://www.syncomnet.com/template/Resources/Public/images/icons/scn_facebook.png" /> 
<meta property="og:image:type" content="image/png" /> 
<meta property="og:image:width" content="250" /> 
<meta property="og:image:height" content="250" /> 
<meta property="og:url" content="https://www.syncomnet.com/home.html" /> 
<meta property="og:site_name" content="SynComNet" /> 
<meta property="og:description" content="Personalplanung/Personaleinsatzplanung/Dienstplan mit PersPlanNet ERP Software von SynComNet" /> 
<meta property="og:locale" content="de_DE" /> 

Das Problem ist, dass die Facebook-Roboter nicht auf die Seite überhaupt nicht kriechen. Es ergibt sich eine völlig leere Seite nach unserer Homepage kriechen wie Sie hier sehen können:

https://developers.facebook.com/tools/debug/echo/?q=https%3A%2F%2Fwww.syncomnet.com%2Fhome.html

Wenn ich kopieren nun die ganze Quelle der Homepage und fügen Sie ihn in einem statischen test.html, der Crawler wird die Seite. Das einzige, was ich ändern muß, ist die kanonische URL in der og: url Meta-Eigenschaft ...

<meta property="og:url" content="https://www.syncomnet.com/test.html" /> 

... und der Roboter funktioniert ohne Probleme.

https://developers.facebook.com/tools/debug/echo/?q=https%3A%2F%2Fwww.syncomnet.com%2Ftest.html

Das Problem ist, dass alle von den CMS generierten Seiten nicht in irgendeiner Weise gecrawlt werden. Ich habe auch getestet, ob die robots.txt das Problem ist, indem ich einfach "/" erlaube, aber das hat keine Auswirkungen. Wo könnte der Fehler sein? Ich danke dir sehr!

Antwort

0

Ich bin jetzt ein bisschen näher: Der Facebook-Roboter scheint nicht in der Lage zu sein, Gzip-Komprimierung zu behandeln.

Wenn ich den folgenden Abschnitt in meinem .htaccess auf Kommentar ...

<IfModule mod_filter.c> 
    AddOutputFilterByType DEFLATE application/atom+xml \ 
     application/javascript \ 
     application/json \ 
     application/ld+json \ 
     application/manifest+json \ 
     application/rdf+xml \ 
     application/rss+xml \ 
     application/schema+json \ 
     application/vnd.geo+json \ 
     application/vnd.ms-fontobject \ 
     application/x-font-ttf \ 
     application/x-javascript \ 
     application/x-web-app-manifest+json \ 
     application/xhtml+xml \ 
     application/xml \ 
     font/eot \ 
     font/opentype \ 
     image/bmp \ 
     image/svg+xml \ 
     image/vnd.microsoft.icon \ 
     image/x-icon \ 
     text/cache-manifest \ 
     text/css \ 
     text/html \ 
     text/javascript \ 
     text/plain \ 
     text/vcard \ 
     text/vnd.rim.location.xloc \ 
     text/vtt \ 
     text/x-component \ 
     text/x-cross-domain-policy \ 
     text/xml 
</IfModule> 

... die Facebook Schaber funktioniert gut. Problem: Dieser Bereich ist standardmäßig von TYPO3. Ich schaue jetzt selbst, wie man eine Ausnahme für den Facebook-Roboter hinzufügt.

Verwandte Themen