2016-12-25 2 views
0

Ich führe eine Spark-Anwendung lokal von 4 Knoten. wenn ich meine Anwendung renne es zeigt meine Fahrer mit dieser Adresse 10.0.2.15:Zugriff auf Spark Web UI?

INFO Utils: Successfully started service 'SparkUI' on port 4040. 
INFO SparkUI: Bound SparkUI to 0.0.0.0, and started at http://10.0.2.15:4040 

am Ende es laufen zeigt:

INFO SparkUI: Stopped Spark web UI at http://10.0.2.15:4040 
INFO MapOutputTrackerMasterEndpoint: MapOutputTrackerMasterEndpoint stopped! 
INFO MemoryStore: MemoryStore cleared 
INFO BlockManager: BlockManager stopped 
INFO BlockManagerMaster: BlockManagerMaster stopped 
INFO OutputCommitCoordinator$OutputCommitCoordinatorEndpoint: OutputCommitCoordinator stopped! 
INFO SparkContext: Successfully stopped SparkContext 

Ich habe versucht, durch den Funken Web zuzugreifen: 10.0.2.15:4040 aber die Seite ist nicht zugänglich. mit der unten stehenden Adresse Versuch auch nicht geholfen hat:

http://localhost:18080 

Mit ping 10.0.2.15 das Ergebnis ist:

Send a request 'Ping' 10.0.2.15 with 32 bytes of data 

Waiting time exceeded 

Waiting time exceeded 

Waiting time exceeded 

Waiting time exceeded 

Ping statistics for 10.0.2.15: Packages: sent = 4, received = 0, lost = 4 (100% loss) 

überprüfte die Verfügbarkeit des Hafens 4040 netstat -a mit dem verfügbaren, welchen Ports zu überprüfen sind. Das Ergebnis ist wie folgt:

Active connexion: 

    Active  local address  Remote address      state 

    TCP   127.0.0.1:4040  DESKTOP-FF4U.....:0     Listening 

PS .: Bekannte, dass mein Code erfolgreich ausgeführt wird. Was könnte der Grund sein?

Antwort

2

Auf die Web-Ui kann nur zugegriffen werden, während die Spark-Anwendung ausgeführt wird. Sobald die Spark-Anwendung fertig ist, hat auch die Benutzeroberfläche.

Um die Protokolle von bereits fertiggestellten und aktuell laufenden Spark-Anwendungen, die Ihnen die Spark History server verwenden zu überprüfen.

+0

Vielen Dank, ich überprüft http: // localhost: 18080 auf der gleichen Zeit, wenn meine Anwendung ausgeführt wird, aber die Seite ist nicht zugänglich. Kann ich die Konfiguration in den Tow-Dateien ändern: spark-defaults.conf, SparkConf? – sirine

+1

@sirine ja Sie können die Konfiguration in Spark-defaults.conf anpassen. Auch für den Fall, dass ich Sie gerade jetzt missverstanden habe, nur um das klar zu machen: Sie müssen den Verlaufsserver separat starten, wie unter dem Link erklärt. –

+0

Ich überprüfte die serverhistory-server.sh, sbin = "' dirname "$ 0" '" sbin = "' cd "$ sbin"; pwd' " . "$ sbin/spark-config.sh" . "$ SPARK_PREFIX/bin/load-spark-env.sh" wenn [$ #! = 0]; dann echo "Das Verwenden von Befehlszeilenargumenten zum Festlegen des Protokollverzeichnisses ist veraltet. Bitte stellen Sie stattdessen" echo "die Konfigurationsoption spark.history.fs.logDirectory ein." Export SPARK_HISTORY_OPTS = "$ SPARK_HISTORY_OPTS -Dspark.history.fs.logDirectory = $ 1" fi exec "$ sbin" /spark-daemon.sh starten org.apache.spark.deploy.history.HistoryServer 1 Kann ich ändern es? Vielen Dank. – sirine