Ich führe eine Spark-Anwendung lokal von 4 Knoten. wenn ich meine Anwendung renne es zeigt meine Fahrer mit dieser Adresse 10.0.2.15:Zugriff auf Spark Web UI?
INFO Utils: Successfully started service 'SparkUI' on port 4040.
INFO SparkUI: Bound SparkUI to 0.0.0.0, and started at http://10.0.2.15:4040
am Ende es laufen zeigt:
INFO SparkUI: Stopped Spark web UI at http://10.0.2.15:4040
INFO MapOutputTrackerMasterEndpoint: MapOutputTrackerMasterEndpoint stopped!
INFO MemoryStore: MemoryStore cleared
INFO BlockManager: BlockManager stopped
INFO BlockManagerMaster: BlockManagerMaster stopped
INFO OutputCommitCoordinator$OutputCommitCoordinatorEndpoint: OutputCommitCoordinator stopped!
INFO SparkContext: Successfully stopped SparkContext
Ich habe versucht, durch den Funken Web zuzugreifen: 10.0.2.15:4040
aber die Seite ist nicht zugänglich. mit der unten stehenden Adresse Versuch auch nicht geholfen hat:
http://localhost:18080
Mit ping 10.0.2.15
das Ergebnis ist:
Send a request 'Ping' 10.0.2.15 with 32 bytes of data
Waiting time exceeded
Waiting time exceeded
Waiting time exceeded
Waiting time exceeded
Ping statistics for 10.0.2.15: Packages: sent = 4, received = 0, lost = 4 (100% loss)
überprüfte die Verfügbarkeit des Hafens 4040 netstat -a
mit dem verfügbaren, welchen Ports zu überprüfen sind. Das Ergebnis ist wie folgt:
Active connexion:
Active local address Remote address state
TCP 127.0.0.1:4040 DESKTOP-FF4U.....:0 Listening
PS .: Bekannte, dass mein Code erfolgreich ausgeführt wird. Was könnte der Grund sein?
Vielen Dank, ich überprüft http: // localhost: 18080 auf der gleichen Zeit, wenn meine Anwendung ausgeführt wird, aber die Seite ist nicht zugänglich. Kann ich die Konfiguration in den Tow-Dateien ändern: spark-defaults.conf, SparkConf? – sirine
@sirine ja Sie können die Konfiguration in Spark-defaults.conf anpassen. Auch für den Fall, dass ich Sie gerade jetzt missverstanden habe, nur um das klar zu machen: Sie müssen den Verlaufsserver separat starten, wie unter dem Link erklärt. –
Ich überprüfte die serverhistory-server.sh, sbin = "' dirname "$ 0" '" sbin = "' cd "$ sbin"; pwd' " . "$ sbin/spark-config.sh" . "$ SPARK_PREFIX/bin/load-spark-env.sh" wenn [$ #! = 0]; dann echo "Das Verwenden von Befehlszeilenargumenten zum Festlegen des Protokollverzeichnisses ist veraltet. Bitte stellen Sie stattdessen" echo "die Konfigurationsoption spark.history.fs.logDirectory ein." Export SPARK_HISTORY_OPTS = "$ SPARK_HISTORY_OPTS -Dspark.history.fs.logDirectory = $ 1" fi exec "$ sbin" /spark-daemon.sh starten org.apache.spark.deploy.history.HistoryServer 1 Kann ich ändern es? Vielen Dank. – sirine