2016-11-17 5 views
0

Ich folge this official site und ich bin mir sicher, dass mir alles gut geht. Ich kann jedoch nicht sbin/start-dfs.sh für einen Pseudo-Distributed-Knoten ausführen. Jedesmal, wenn ich bin die folgende Fehlermeldung erhalten:kann nicht gestartet werden hadoop namenode

starting namenodes on [localhost]
[email protected]: localhost:connect: Connection refused
starting datanodes
[email protected]: localhost:connect: Connection refused
starting secondary namenodes [ML-Learning]
[email protected]: localhost:connect: Connection refused

ich ausgeführt ssh locaohost ohne Passwort.

Zuvor konnte ich die folgenden Befehle ausführen, um nomenode und datanode zu starten.

bin/hadoop --daemon start namenode 
bin/hadoop --daemon start datanode 

aber ich kann sie nicht mit den folgenden Befehlen stoppen, und der Fehler wird sagen, diese Dämonen mit Prozess ausgeführt werden

bin/hadoop --daemon stop namenode 
bin/hadoop --daemon stop datanode 

So war ich einfach diese Prozesse zu töten, und es scheint danach Ich habe mein gesamtes Setup ruiniert. Ich kann Namenknoten und Datenknoten nicht mehr starten.

bin/hadoop --daemon start namenode 
bin/hadoop --daemon start datanode 

Es steckte in der folgenden Meldung:

INFO blockmanagement.CacheReplicationMonitor: Starting CacheReplicationMonitor with interval 30000 milliseconds.

Jede Idee zu diesem Thema? Ich habe sogar meine VM neu gestartet, aber das Problem ist immer noch da.

Antwort

0

Ihre aktuellen Einstellungen ab, indem Sie die Formatierung NameNode verwenden,

$HADOOP_HOME/bin/hadoop namenode -format 

diese Folgen ohne Ausfall,

http://www.michael-noll.com/tutorials/running-hadoop-on-ubuntu-linux-single-node-cluster/ 
+0

Dank Deno. Ich werde mir den Artikel ansehen, auf den Sie hingewiesen haben. BTW, Ich kann '$ HADOOP_HOME/bin/hadoop namennode -format' erfolgreich ausführen. –

+0

Überprüfen Sie den Benutzer und die Berechtigung. Angenommen, Sie haben hadoop als hduser installiert, dann können Sie nicht auf Hadoop-Befehle mit einem anderen Benutzer zugreifen. Überprüfen Sie auch die Berechtigung für Dateien/Ordner. –

+0

Ich folge dem Link, den du angegeben hast, aber ich stoße auf dasselbe Problem. "... localhost: connect: Verbindung verweigert" Alle Schritte vor Start-hdfs.sh erfolgreich abgeschlossen. Kämpfen Sie seit fast einer Woche mit diesem Problem. BTW, ich benutze Ubuntu 14.04LTS und Hadoop 3.0.0 –

0

Lauf dieser Befehl: Export PDSH_RCMD_TYPE = ssh

Verwandte Themen