2017-06-14 6 views
0

Im Folgenden finden Sie die Fehlermeldung, die ich während ich immer hadoop Daemons starten start-all.sh mit: attached screenshotFehler beim start-all.sh (Hadoop) Start

STARTUP_MSG: build = https://git-wip-us.apache.org/repos/asf/hadoop.git -r 91f2b7a13d1e97be65db92ddabc627cc29ac0009; compiled by 'jdu' on 2017-03-17T04:12Z 
STARTUP_MSG: java = 1.8.0_121 
cat: /usr/local/hadoop/conf/slaves: No such file or directory 

Was die Updates sind?

+0

Ist dieser Pfad (/ usr/local/hadoop/conf/slaves) für den Slave vorhanden ?. Überprüfen Sie Ihren Hadoop-Verzeichnispfad und aktualisieren Sie ihn in conf –

+0

Das ist kein Fehler, Sie können Hadoop verwenden, wenn alle Dienste ausgeführt werden. Verwenden Sie 'jps', um den Daemon-Status zu überprüfen. – BruceWayne

Antwort

0

Mit Blick auf die Fehlermeldung scheint es, dass Sie slaves Datei in /usr/local/hadoop/conf/ Verzeichnis fehlen. Sie können ein

erstellen Wenn Sie hadoop in local/pseudo Modus ausgeführt werden dann localhost nur

in dieser Datei setzen Wenn Sie hadoop in cluster-Modus ausgeführt werden, dann müssen Sie entweder ip s oder hostname s aller slave-machines hinzufügen im Cluster.

+0

Vielen Dank .. es funktioniert :) –

+0

großartig, dass @ShubhamJoshi zu hören. Akzeptieren und Upvote soll mir auch helfen. :) –