Ich konfigurierte sparkr
normalerweise von den Tutorials, und alles funktionierte. Ich war in der Lage, die Datenbank mit read.df
, zu lesen, aber plötzlich nichts anderes funktioniert, und die folgenden Fehler angezeigt:JVM ist nicht bereit nach 10 Sekunden
Fehler bei sparkR.init (Master = „local“): JVM nach 10 Sekunden nicht bereit ist
Warum erscheint es jetzt plötzlich? Ich habe andere Benutzer mit dem gleichen Problem gelesen, aber die angegebenen Lösungen haben nicht funktioniert. Unten ist mein Code:
Sys.setenv(SPARK_HOME= "C:/Spark")
Sys.setenv(HADOOP_HOME = "C:/Hadoop")
.libPaths(c(file.path(Sys.getenv("SPARK_HOME"), "R", "lib"), .libPaths()))
library(SparkR)
#initialeze SparkR environment
Sys.setenv('SPARKR_SUBMIT_ARGS'='"--packages" "com.databricks:spark-csv_2.11:1.2.0" "sparkr-shell"')
Sys.setenv(SPARK_MEM="4g")
#Create a spark context and a SQL context
sc <- sparkR.init(master = "local")
sqlContext <- sparkRSQL.init(sc)
Verstehen, dass Ihre Einrichtung in Windows richtig ausgeführt wird, dann ist dies ein reguläres Phänomen in Windows, wenn mehrere andere Dinge/Programme gleichzeitig ausgeführt werden; hier wird JVM in erster Instanz nicht genug Speicher bekommen, und es fängt an, das oben genannte zu disponentieren. Wenn Sie den Kontext erneut ausführen, wird es funktionieren, stellen Sie sicher, dass mindestens 500 MB Speicher nicht verwendet wird, andernfalls schließen Sie einige andere Dinge, die mehr Speicher verbrauchen. – pmavuluri