Nach langen und schwierigen Installationsprozess von SparkR ich in neue Probleme beim Starten von SparkR.Kann nicht gestartet werden SparkR in RStudio
Meine Einstellungen
R 3.2.0
RStudio 0.98.1103
Rtools 3.3
Spark 1.4.0
Java Version 8
SparkR 1.4.0
Windows 7 SP 1 64 Bit
Jetzt versuche ich folgenden Code in R zu verwenden:
library(devtools)
library(SparkR)
Sys.setenv(SPARK_MEM="1g")
Sys.setenv(SPARK_HOME="C:/spark-1.4.0")
sc <- sparkR.init(master="local")
Ich erhalte folgende:
JVM is not ready after 10 seconds
Ich habe versucht, auch einige Systemvariablen hinzufügen wie Funkenpfad oder Java-Pfad.
Haben Sie irgendwelche Ratschläge für mich, um diese Probleme zu beheben.
Der nächste Schritt für mich nach dem Testen des lokalen Hosts wäre, Tests auf meinem laufenden Hadoop-Cluster zu starten.
Sieht aus wie ein Windows-spezifisches Problem oder zumindest nicht reproduzierbar auf Debian GNU/Linux, R 3.2.1, Spark 1.4.0, RStudio 0.98.1103, OpenJDK 7u79. Zusätzliche Informationen über Ihre OS-Konfiguration könnte sein nützlich – zero323
Wenn ich sc <- sparkR.init (master = "local") dann bekomme ich Starten von Java mit Spark-Submit-Befehl C: /spark-1.4.0/bin/spark-submit.cmd Sparkr-Shell Vielleicht ein Fehler in meinen Umgebungsvariablen oder vielleicht in meiner Java-Version? Oder im Ausführen der Shell? –