2017-10-14 3 views
0

Ich suchte nach oben und unten, konnte aber keine Lösung finden, die für den Zweck passen würde.Wie scrape ich diese Webseite mit R

würde Ich mag diese Seite (Tabelle) kratzen

https://www.fxstreet.com/rates-charts/usdjpy/forecast

Ich versuchte paar Möglichkeiten, aber könnten die Daten nicht in eine Tabelle verschrottet bekommen.

library(XML) 
library(RCurl) 

url <-"https://www.fxstreet.com/rates-charts/usdjpy/forecast" 
url2 <- getURL(url) 
parsed <- htmlParse(url2) 
+1

Öffnen Sie eine neue Registerkarte in Chrome. Öffnen Sie "Entwickler-Tools" (jagen Sie in den Chrome-Menüs). Klicken Sie dort auf die Registerkarte "Netzwerk" und auf die Unterrubrik "XHR". Navigieren Sie zu dieser Seite. Schauen Sie sich die 'xhr' Anfragen an. Es gibt eine gute Chance, dass Sie die Daten dort finden können, aber die Haupt-HTML-Seite hat auch eine große Anzahl von Base64-kodierten JSON-Datenblobs, die analysiert werden und erzeugt Datentabellen und Diagramme (und andere dynamische Inhalte). Daher müssen Sie 'splashrr' oder' seleniumPipes' verwenden, wenn Sie nicht in der Lage sind, On-Page-Javascript zu sezieren und zu extrahieren. – hrbrmstr

+0

@hrbrmstr, das wird schwer zu folgen sein, ich werde mein Bestes versuchen, danke! – Maximilian

Antwort

0

Versuchen RSelenium.

Navigieren Sie in Ihrem Browser zu dieser URL und warten Sie, bis die Elemente geladen sind. Versuchen Sie, die Technik, die in dieser Antwort diskutiert

how to check if page finished loading in RSelenium

nach Beendigung des Vorgangs Laden, können Sie die HTML-Format speichern und mit rvest Paket oder die Wahl des eigenen lesen.

Verwandte Themen