2016-04-07 11 views
0

Ich studiere über sparkR, und ich weiß, dass es so viele nützliche R-Paket in CRAN gibt. Aber es scheint, dass das R-Paket nicht in sparkR verwendet werden kann. Da bin ich mir nicht sicher.Kann das R-Paket in sparkR verwendet werden?

Ist es wahr ??? Wenn nicht, könnten Sie erklären, wie R-Paket in sparkR importiert wird?

Antwort

0

Ich bin raten, dass Sie mit dem Befehl includePackage Bezug werden können:

SparkR ermöglicht auch die einfache Nutzung von vorhandenen R-Pakete innerhalb Schließungen. Der Befehl includePackage kann verwendet werden, um Pakete anzugeben, die geladen werden sollten, bevor jede Schließung auf dem Cluster ausgeführt wird.

Quelle:R frontend for Spark

+0

Wenn SparkR vorhandene R-Pakete verwenden können, Warum SparkR über zwei Hunderte von API bieten in http://spark.apache.org/docs/latest/api/R /index.html? Es ist nur für die Benutzerfreundlichkeit ??? –

+0

In der Tat läuft die Frage auf, was ist ** SparkR **, aus der [offiziellen Dokumentation:] (https://spark.apache.org/docs/latest/sparkr.html.html) * SparkR ist ein R-Paket, das stellt ein leichtgewichtiges Frontend zur Verwendung von Apache Spark von R bereit. In Spark 1.6.1 stellt SparkR eine verteilte Datenrahmenimplementierung bereit, die Operationen wie Auswahl, Filterung, Aggregation usw. (ähnlich R-Datenrahmen, dplyr) unterstützt, aber auf großen Datensätzen . * Ich würde vorschlagen, dass Sie sich [dieses Tutorial] (https://github.com/amplab-extras/SparkR-pkg/wiki/SparkR-Quick-Start) ansehen, das die praktische Verwendung zeigt. – Konrad

Verwandte Themen