2016-05-25 8 views
2

Ich konfigurierte sparkr normalerweise von den Tutorials, und alles funktionierte. Ich war in der Lage, die Datenbank mit read.df, zu lesen, aber plötzlich nichts anderes funktioniert, und die folgenden Fehler angezeigt:JVM ist nicht bereit nach 10 Sekunden

Fehler bei sparkR.init (Master = „local“): JVM nach 10 Sekunden nicht bereit ist

Warum erscheint es jetzt plötzlich? Ich habe andere Benutzer mit dem gleichen Problem gelesen, aber die angegebenen Lösungen haben nicht funktioniert. Unten ist mein Code:

Sys.setenv(SPARK_HOME= "C:/Spark") 
Sys.setenv(HADOOP_HOME = "C:/Hadoop") 
.libPaths(c(file.path(Sys.getenv("SPARK_HOME"), "R", "lib"), .libPaths())) 
library(SparkR) 

#initialeze SparkR environment 
Sys.setenv('SPARKR_SUBMIT_ARGS'='"--packages" "com.databricks:spark-csv_2.11:1.2.0" "sparkr-shell"') 
Sys.setenv(SPARK_MEM="4g") 

#Create a spark context and a SQL context 
sc <- sparkR.init(master = "local") 
sqlContext <- sparkRSQL.init(sc) 
+0

Verstehen, dass Ihre Einrichtung in Windows richtig ausgeführt wird, dann ist dies ein reguläres Phänomen in Windows, wenn mehrere andere Dinge/Programme gleichzeitig ausgeführt werden; hier wird JVM in erster Instanz nicht genug Speicher bekommen, und es fängt an, das oben genannte zu disponentieren. Wenn Sie den Kontext erneut ausführen, wird es funktionieren, stellen Sie sicher, dass mindestens 500 MB Speicher nicht verwendet wird, andernfalls schließen Sie einige andere Dinge, die mehr Speicher verbrauchen. – pmavuluri

Antwort

0

Versuchen unten einige Dinge zu tun:

  1. Überprüfen Sie, ob c:/Windows/System32/ ist in der PATH dort.

  2. Überprüfen Sie, ob spark-submit.cmd ordnungsgemäße Ausführungsberechtigungen hat.

  3. Wenn beide oben genannten Dinge zutreffen und selbst wenn es den gleichen Fehler gibt, dann delete spark directory und wieder eine neue Datei von unzipping spark gzip erstellen.

+0

Wie kann ich überprüfen, ob spark-submit.cmd über die richtigen Ausführungsberechtigungen verfügt? –

0

Ich bin ein Anfänger von R, und ich habe das gleiche Problem gelöst „JVM ist nicht bereit, nach 10 Sekunden“ von JDK Installation (Version 7+) vor sparkr in meinem Mac installieren. Und es funktioniert jetzt gut. Hoffe, das kann dir bei deinem Problem helfen.

+0

Vielen Dank Caroline Su. Heute musste ich den sparkR wieder benutzen und gab den gleichen Fehler. Ich deinstalliere jdk9 und installierte 7. Für jetzt funktioniert es. –

+0

Gern geschehen. Ich bin Lichtung, dass es für Ihr Problem funktioniert. –

Verwandte Themen