2017-12-15 12 views
7

Ich habe https://github.com/big-data-europe/docker-hadoop-spark-workbench installiertZugriff hdfs von Docker-Hadoop-Funken - Werkbank über zeppelin

begann es dann mit docker-compose up auf. Ich navigierte zu the various urls mentioned in the git readme und alles scheint zu sein.

Ich begann dann eine lokale Apache zeppelin mit:

./bin/zeppelin.sh start 

In zeppelin Interpreter Einstellungen haben dann i navigiert Interpreter zu entfachen und den Master an den lokalen Cluster mit docker

Master installiert Punkt aktualisiert: aktualisiert von local[*]-spark://localhost:8080

ich dann in einem Notebook den folgenden Code ausführen:

import org.apache.hadoop.fs.{FileSystem,Path} 

FileSystem.get(sc.hadoopConfiguration).listStatus(new Path("hdfs:///")).foreach(x => println(x.getPath)) 

Ich erhalte diese Ausnahme in zeppelin Protokolle:

INFO [2017-12-15 18:06:35,704] ({pool-2-thread-2} Paragraph.java[jobRun]:362) - run paragraph 20171212-200101_1553252595 using null [email protected] 
WARN [2017-12-15 18:07:37,717] ({pool-2-thread-2} NotebookServer.java[afterStatusChange]:2064) - Job 20171212-200101_1553252595 is finished, status: ERROR, exception: null, result: %text java.lang.NullPointerException 
    at org.apache.zeppelin.spark.Utils.invokeMethod(Utils.java:38) 
    at org.apache.zeppelin.spark.Utils.invokeMethod(Utils.java:33) 
    at org.apache.zeppelin.spark.SparkInterpreter.createSparkContext_2(SparkInterpreter.java:398) 
    at org.apache.zeppelin.spark.SparkInterpreter.createSparkContext(SparkInterpreter.java:387) 
    at org.apache.zeppelin.spark.SparkInterpreter.getSparkContext(SparkInterpreter.java:146) 
    at org.apache.zeppelin.spark.SparkInterpreter.open(SparkInterpreter.java:843) 
    at org.apache.zeppelin.interpreter.LazyOpenInterpreter.open(LazyOpenInterpreter.java:70) 
    at org.apache.zeppelin.interpreter.remote.RemoteInterpreterServer$InterpretJob.jobRun(RemoteInterpreterServer.java:491) 
    at org.apache.zeppelin.scheduler.Job.run(Job.java:175) 
    at org.apache.zeppelin.scheduler.FIFOScheduler$1.run(FIFOScheduler.java:139) 
    at java.util.concurrent.Executors$RunnableAdapter.call(Executors.java:511) 
    at java.util.concurrent.FutureTask.run(FutureTask.java:266) 
    at java.util.concurrent.ScheduledThreadPoolExecutor$ScheduledFutureTask.access$201(ScheduledThreadPoolExecutor.java:180) 
    at java.util.concurrent.ScheduledThreadPoolExecutor$ScheduledFutureTask.run(ScheduledThreadPoolExecutor.java:293) 
    at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1142) 
    at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:617) 
    at java.lang.Thread.run(Thread.java:748) 

Wie kann ich die hdfs von zeppelin und java/Funken Code zugreifen?

Antwort

1

Grund für die Ausnahme ist, dass das sparkSession Objekt ist null aus irgendeinem Grund in Zeppelin.

Referenz: https://github.com/apache/zeppelin/blob/master/spark/src/main/java/org/apache/zeppelin/spark/SparkInterpreter.java

private SparkContext createSparkContext_2() { 
    return (SparkContext) Utils.invokeMethod(sparkSession, "sparkContext"); 
} 

Könnte eine Konfiguration bezogenes Problem sein. Bitte überprüfen Sie die Einstellungen/Konfiguration und die Cluster-Einstellungen. Stellen Sie sicher, dass der Funke funktioniert.

Referenz: https://zeppelin.apache.org/docs/latest/interpreter/spark.html

Hoffnung, das hilft.

Verwandte Themen