2013-03-26 8 views
5

Alle meine Knoten laufen und laufen, wenn wir jps Befehl sehen, aber immer noch kann ich keine Verbindung zum hdfs Dateisystem herstellen. Immer, wenn ich Browse the filesystem auf der Hadoop-Nameode localhost: 8020 Seite klicke, ist der Fehler, den ich bekomme, Connection Refused. Auch ich habe versucht, den namenode zu formatieren und neu zu starten, aber der Fehler bleibt bestehen. Kann mir bitte jemand helfen, dieses Problem zu lösen."Verbindung abgelehnt" Fehler für Nameode-HDFS (Hadoop Issue)

Antwort

6

Überprüfen Sie, ob alle Ihre Dienste ausgeführt werden JobTracker, Jps, NameNode. DataNode, TaskTracker durch Ausführen von jps Befehl.

Versuchen laufen sie nacheinander starten:

./bin/stop-all.sh 
./bin/hadoop-daemon.sh start namenode 
./bin/hadoop-daemon.sh start jobtracker 
./bin/hadoop-daemon.sh start tasktracker 
./bin/hadoop-daemon.sh start datanode 

Wenn Sie noch immer den Fehler, stoppen sie wieder und reinigen Sie Ihre temporären Speicherverzeichnis. Die Verzeichnisangaben sind in der Konfigurationsdatei ./conf/core-site.xml und der Flucht,

./bin/stop-all.sh 
rm -rf /tmp/hadoop* 
./bin/hadoop namenode -format 

Überprüfen Sie die Protokolle im ./logs Ordner.

tail -200 hadoop*jobtracker*.log 
tail -200 hadoop*namenode*.log 
tail -200 hadoop*datanode*.log 

Ich hoffe, es hilft.

+0

Dank Sein für mich gearbeitet – nayab

+0

Dank half es –

2

HDFS kann Port 9000 unter bestimmten Distribution/Build verwenden.

Bitte überprüfen Sie Ihren Namen Node-Port.

+0

Das ist mein fix für einen Spark 2.0.2 läuft neuen Hadoop-Cluster war. –

0

Veränderung der Kern-site.xml

<property> 
    <name>fs.default.name</name> 
    <value>hdfs://hadoopvm:8020</value> 
    <final>true</final> 
    </property> 

Änderung der IP-Adresse.

<property> 
<name>fs.default.name</name> 
<value>hdfs://192.168.132.129:8020</value> 
<final>true</final> 
</property> 
Verwandte Themen