2017-11-29 1 views
0

Ich habe Scala, Spark, SBT und Winutils auf der Windows-Box installiert. Außerdem wurden JAVA_HOME, SPARK_HOME, SCALA_HOME und SBT_HOME entsprechend konfiguriert. Trotzdem, wenn ich versuche, "Spark-shell" zu starten, stoße ich auf ein sehr häufiges Problem, dem viele Menschen ausgesetzt sind. Ich habe versucht, Zugriff auf c:/tmp/hive-Verzeichnis durch winutils sowie durch Windows Explorer. Das gleiche Problem. Ich würde mich freuen, wenn mir jemand sagen könnte, was ich sonst noch vermisse? Versionen: Funke: 2.1.1 Scala: 2.11 Hier sind die Links zu Screenshots: https://filedropper.com/filemanager/public.php?service=files&t=b5cc12549b9ae19ff969c65cb952c135Spark-Shell Initiierungsfehler/tmp/hive nicht beschreibbar

https://filedropper.com/filemanager/public.php?service=files&t=cb5b9b8f14980963be6f0a6511f71455

https://filedropper.com/filemanager/public.php?service=files&t=a2d471abfe57ca020a700c226b906faf

Schätzen Sie Ihre Hilfe! Danke, Manish

+0

'Spark-Shell' muss nicht lesen'/tmp/hive', bis Sie HiveSupport aktivieren ... –

+0

'Spark-Shell' ** verwendet ** eine Hive-fähige 'SparkSession' und muss daher diese Ebene richtig konfigurieren. –

Antwort

0

Danke cricket_007 und Jacek. Ich freue mich über Ihre Kommentare. Es ergab sich ein Problem mit der Versionskompatibilität mit winutils. Musste mehrere Versionen versuchen, bis die richtige Version die Berechtigungen auf/tmp/hive änderte

Verwandte Themen