2016-07-05 4 views
3

Ich versuche, R mit einer lokalen Instanz von Spark über Rstudio zu verbinden. Allerdings bekomme ich die Fehlermeldung angezeigt. Was vermisse ich? Ich benutze Windows 10. Ich folge dem Tutorial auf rstudio.Verbinde R mit Spark in Rstudio - Fehler beim Starten der Spark-Shell. Port-Datei existiert nicht

library(sparklyr) 
    spark_install(version = "1.6.1") 
    library(sparklyr) 
    library(dplyr) 
    sc <- spark_connect(master = "local") 

Die Fehlermeldung erhalte ich:

 Error in start_shell(scon, list(), jars, packages) : 
    Failed to launch Spark shell. Ports file does not exist. 
    Path: C:\Users\username\AppData\Local\rstudio\spark\Cache\spark-1.6.1- bin-hadoop2.6\bin\spark-submit.cmd 

Parameters: --packages "com.databricks:spark-csv_2.11:1.3.0,com.amazonaws:aws-java-sdk-pom:1.10.34" --jars "C:\Users\user\Documents\R\win-library\3.3\sparklyr\java\rspark_utils.jar" sparkr-shell C:\Users\aaaa\AppData\Local\Temp\Rtmpw9PBxS\filea5860886dd1.out 

'cmd' is not recognized as an internal or external command, 
    operable program or batch file. 

Antwort

2

Hinzufügen von C: \ Windows \ system32 auf dem Pfad-Systemvariablen gelöst es. Zuvor wurde es nur den Benutzervariablen Pfad hinzugefügt, was zu der Fehlermeldung führte.

Verwandte Themen