1

i spark2.0.0 auf 12 Knoten (in Cluster Standalone-Modus) installiert haben, wenn ich es starten bekomme ich diese:Spark-Web-UI nicht erreichbar

./sbin/start-all.sh 

Start org.apache.spark.deploy.master .Master, Protokollierung in /home/mName/fer/spark-2.0.0-bin-hadoop2.7/logs/spark-mName-org.apache.spark.deploy.master.Master-1-ibnb25.out

localhost192.17.0.17: ssh: Hostname konnte nicht aufgelöst werden localhost192.17.0.17: Name oder Dienst nicht bekannt

192 .17.0.20: Starten von org.apache.spark.deploy.worker.Worker, Anmelden an /home/mbala/fer/spark-2.0.0-bin-hadoop2.7/logs/spark-mName-org.apache.spark .deploy.worker.Worker-1-ibnb28.out

192.17.0.21: Starten von org.apache.spark.deploy.worker.Worker, Anmelden an /home/mName/fer/spark-2.0.0-bin- hadoop2.7/logs/spark-mName-org.apache.spark.deploy.worker.Worker-1-ibnb29.out

192.17.0.19: Starten von org.apache.spark.deploy.worker.Worker, Anmeldung an /home/mName/fer/spark-2.0.0-bin-hadoop2.7/logs/spark-mName-org.apache.spark.deploy.worker.Worker-1-ibnb27.out

192.17.0.18: Starten Sie org.apache.spark.deploy.worker.Worker und melden Sie sich in/home/mName/fer/spa an rk-2.0.0-bin-hadoop2.7/logs/spark-mName-org.apache.spark.deploy.worker.Worker-1-ibnb26.out

192.17.0.24: Start org.apache.spark. deploy.worker.Worker, Protokollierung in /home/mName/fer/spark-2.0.0-bin-hadoop2.7/logs/spark-mName-org.apache.spark.deploy.worker.Worker-1-ibnb32.out

192.17.0.22: Starten von org.apache.spark.deploy.worker.Worker, Protokollierung in /home/mName/fer/spark-2.0.0-bin-hadoop2.7/logs/spark-mName-org. apache.spark.deploy.worker.Worker-1-ibnb30.out

192.17.0.25: Starten von org.apache.spark.deploy.worker.Worker, Anmeldung an /home/mName/fer/spark-2.0.0 -bin-hadoop2.7/logs/spark-mName-org.apache.spark.deploy.worker.Worker-1-ibnb33.o ut

192.17.0.28: Start org.apache.spark.deploy.worker.Worker, Protokollierung in /home/mName/fer/spark-2.0.0-bin-hadoop2.7/logs/spark-mName-org .apache.spark.deploy.worker.Worker-1-ibnb36.out

192.17.0.27: Starten von org.apache.spark.deploy.worker.Worker, Anmeldung an /home/mName/fer/spark-2.0. 0-bin-hadoop2.7/logs/spark-mName-org.apache.spark.deploy.worker.Worker-1-ibnb35.out

192.17.0.17: Starten org.apache.spark.deploy.worker. Worker, protokolliert auf /home/mName/fer/spark-2.0.0-bin-hadoop2.7/logs/spark-mName-org.apache.spark.deploy.worker.Worker-1-ibnb25.out

192.17.0.26: Starten Sie org.apache.spark.deploy.worker.Worker und melden Sie sich in /home/mName/fer/spark-2.0.0-bin-hadoop2.7/logs/spark-mName-org.apache an. spark.deploy.worker.Worker-1-ibnb34.out

192.17.0.23: Starten von org.apache.spark.deploy.worker.Worker, Protokollierung in /home/mName/fer/spark-2.0.0-bin -hadoop2.7/logs/Funken MNAME-org.apache.spark.deploy.worker.Worker-1-ibnb31.out

i bereits den Port o Master-Port = 8081 und seine IP = 192,17 gesetzt haben .0.17 bedeutet HOSTNAME = ibnb25, ich habe den Cluster von diesem Host gestartet.

von meinem lokalen Rechner verwende ich diesen Befehl, um den Zugriff auf den Cluster

ssh mN[email protected] 

und wenn ich auf die Web-Oberfläche von meinem lokalen Rechner zugreifen wollte, benutzte ich die IPaddress des Masters (HOST ibnb25)

192.17.0.17:8081 

aber es konnte nicht angezeigt werden, so habe ich versucht, mit der Adresse, die ich auf dem Cluster-Zugriff verwenden

xx.xx.xx.xx:8081 

aber nichts wird in meinem Browser angezeigt ..... was ist falsch ?? Bitte helfen Sie mir

Antwort

Verwandte Themen