2016-04-28 10 views
0

Ich bin sehr verwirrt über Hadoop-Konfiguration über core-site.xml und hdfs-site.xml. Ich denke, dass das Skript start-dfs.sh die Einstellung nicht verwendet. Ich benutze hdfs Benutzer, um den Namenode erfolgreich zu formatieren, aber führen Sie aus, dass Start -dfs.sh hdfs Daemons nicht starten kann. Kann mir jemand helfen! hier ist die Fehlermeldung:Execute start-dfs.sh kann nicht gestartet werden hdfs daemons

[[email protected] ~]$ start-dfs.sh 
Starting namenodes on [I26C] 
I26C: mkdir: cannot create directory ‘/hdfs’: Permission denied 
I26C: chown: cannot access ‘/hdfs/hdfs’: No such file or directory 
I26C: starting namenode, logging to /hdfs/hdfs/hadoop-hdfs-namenode-I26C.out 
I26C: /edw/hadoop-2.7.2/sbin/hadoop-daemon.sh: line 159: /hdfs/hdfs/hadoop-hdfs-namenode-I26C.out: No such file or directory 
I26C: head: cannot open ‘/hdfs/hdfs/hadoop-hdfs-namenode-I26C.out’ for reading: No such file or directory 
I26C: /edw/hadoop-2.7.2/sbin/hadoop-daemon.sh: line 177: /hdfs/hdfs/hadoop-hdfs-namenode-I26C.out: No such file or directory 
I26C: /edw/hadoop-2.7.2/sbin/hadoop-daemon.sh: line 178: /hdfs/hdfs/hadoop-hdfs-namenode-I26C.out: No such file or directory 
10.1.226.15: mkdir: cannot create directory ‘/hdfs’: Permission denied 
10.1.226.15: chown: cannot access ‘/hdfs/hdfs’: No such file or directory 
10.1.226.15: starting datanode, logging to /hdfs/hdfs/hadoop-hdfs-datanode-I26C.out 
10.1.226.15: /edw/hadoop-2.7.2/sbin/hadoop-daemon.sh: line 159: /hdfs/hdfs/hadoop-hdfs-datanode-I26C.out: No such file or directory 
10.1.226.16: mkdir: cannot create directory ‘/edw/hadoop-2.7.2/logs’: Permission denied 
10.1.226.16: chown: cannot access ‘/edw/hadoop-2.7.2/logs’: No such file or directory 
10.1.226.16: starting datanode, logging to /edw/hadoop-2.7.2/logs/hadoop-hdfs-datanode-I26D.out 
10.1.226.16: /edw/hadoop-2.7.2/sbin/hadoop-daemon.sh: line 159: /edw/hadoop-2.7.2/logs/hadoop-hdfs-datanode-I26D.out: No such file or directory 
10.1.226.15: head: cannot open ‘/hdfs/hdfs/hadoop-hdfs-datanode-I26C.out’ for reading: No such file or directory 
10.1.226.15: /edw/hadoop-2.7.2/sbin/hadoop-daemon.sh: line 177: /hdfs/hdfs/hadoop-hdfs-datanode-I26C.out: No such file or directory 
10.1.226.15: /edw/hadoop-2.7.2/sbin/hadoop-daemon.sh: line 178: /hdfs/hdfs/hadoop-hdfs-datanode-I26C.out: No such file or directory 
10.1.226.16: head: cannot open ‘/edw/hadoop-2.7.2/logs/hadoop-hdfs-datanode-I26D.out’ for reading: No such file or directory 
10.1.226.16: /edw/hadoop-2.7.2/sbin/hadoop-daemon.sh: line 177: /edw/hadoop-2.7.2/logs/hadoop-hdfs-datanode-I26D.out: No such file or directory 
10.1.226.16: /edw/hadoop-2.7.2/sbin/hadoop-daemon.sh: line 178: /edw/hadoop-2.7.2/logs/hadoop-hdfs-datanode-I26D.out: No such file or directory 
Starting secondary namenodes [0.0.0.0] 
0.0.0.0: mkdir: cannot create directory ‘/hdfs’: Permission denied 
0.0.0.0: chown: cannot access ‘/hdfs/hdfs’: No such file or directory 
0.0.0.0: starting secondarynamenode, logging to /hdfs/hdfs/hadoop-hdfs-secondarynamenode-I26C.out 
0.0.0.0: /edw/hadoop-2.7.2/sbin/hadoop-daemon.sh: line 159: /hdfs/hdfs/hadoop-hdfs-secondarynamenode-I26C.out: No such file or directory 
0.0.0.0: head: cannot open ‘/hdfs/hdfs/hadoop-hdfs-secondarynamenode-I26C.out’ for reading: No such file or directory 
0.0.0.0: /edw/hadoop-2.7.2/sbin/hadoop-daemon.sh: line 177: /hdfs/hdfs/hadoop-hdfs-secondarynamenode-I26C.out: No such file or directory 
0.0.0.0: /edw/hadoop-2.7.2/sbin/hadoop-daemon.sh: line 178: /hdfs/hdfs/hadoop-hdfs-secondarynamenode-I26C.out: No such file or directory 

Hier ist die Info über meine Bereitstellung

Master:

hostname: I26C 
IP:10.1.226.15 

Slave:

hostname:I26D 
IP:10.1.226.16 

Hadoop-Version: 2.7.2

Betriebssystem: C Entos 7

JAVA: 1.8

Ich schaffe haben vier Benutzer:

groupadd hadoop 
useradd -g hadoop hadoop 
useradd -g hadoop hdfs 
useradd -g hadoop mapred 
useradd -g hadoop yarn 

Die HDFS NameNode und DataNode dir Privilegien:

drwxrwxr-x. 3 hadoop hadoop 4.0K Apr 26 15:40 hadoop-data 

Der Kern-site.xml Einstellung:

<configuration> 
    <property> 
    <name>hadoop.tmp.dir</name> 
    <value>/edw/hadoop-data/</value> 
    <description>Temporary Directory.</description> 
    </property> 
    <property> 
    <name>fs.defaultFS</name> 
    <value>hdfs://10.1.226.15:54310</value> 
    </property> 
</configuration> 

Die hdfs-site.xml Einstellung:

<configuration> 
    <property> 
    <name>dfs.replication</name> 
    <value>2</value> 
    <description>Default block replication. 
    The actual number of replications can be specified when the file is created. 
    The default is used if replication is not specified in create time. 
    </description> 
    </property> 
    <property> 
    <name>dfs.namenode.name.dir</name> 
    <value>file:///edw/hadoop-data/dfs/namenode</value> 
    <description>Determines where on the local filesystem the DFS name node should store the name table(fsimage). If this is a comma-delimited list of directories then the name table is replicated in all of the directories, for redundancy. 
    </description> 
    </property> 
    <property> 
    <name>dfs.blocksize</name> 
    <value>67108864</value> 
    </property> 
    <property> 
    <name>dfs.namenode.handler.count</name> 
    <value>100</value> 
    </property> 
    <property> 
    <name>dfs.datanode.data.dir</name> 
    <value>file:///edw/hadoop-data/dfs/datanode</value> 
    <description>Determines where on the local filesystem an DFS data node should store its blocks. If this is a comma-delimited list of directories, then data will be stored in all named directories, typically on different devices. Directories that do not exist are ignored. 
    </description> 
    </property> 
</configuration> 
+0

Sie können überprüfen, welche configs geladen werden immer, echo $ HADOOP_CONF_DIR. Stellen Sie außerdem sicher, dass diese Verzeichnisse zuvor erstellt wurden und über eine ordnungsgemäße Schreibberechtigung für den hdfs-Benutzer verfügen. – neeraj

Antwort

0

Der hdfs Benutzer hat keine Berechtigung für die hadoop Ordner.
Nehmen wir an, Sie verwenden hdfs user und hadoop group, um das hadoop-Setup auszuführen. Dann müssen Sie folgenden Befehl ausführen:

sudo chown -R hduser:hadoop <directory-name> 

Geben Sie Ihrem angemeldeten Benutzer die entsprechende Read-Write-Execute-Berechtigung.

+0

Obwohl ich den Besitzer zu _hdfs_ ändern und ausführbare Berechtigungen festlegen, aber es immer noch fehlschlagen, bin ich neugierig, warum es ein Verzeichnis in "/ hdfs" erstellen muss?Es benötigt Root-Rechte im Verzeichnis/create, aber das Verzeichnis nomenode und datanode befindet sich in '/ edw/hadoop-data/dfs /'. –

0

Ich habe das Problem behoben, danke Jungs.

Die Hadoop-Protokollkonfiguration HADOOP_LOG_DIR Einstellung in /etc/profile kann nicht in hadoop-env.sh verwendet werden. So ist die HADOOP_LOG_DIR Standard leer ist, verwenden Sie die start-dfs.sh das Standardverzeichnis Einstellung von hadoop-env.sh

export HADOOP_LOG_DIR=${HADOOP_LOG_DIR}/$USER 

ich hdfs verwenden verwenden, um die start-dfs.sh vorzuformen die HADOOP_LOG_DIR zu/hdfs gesetzt, Es wird also nicht berechtigt sein, ein Verzeichnis zu erstellen.

Hier ist meine neue Lösung bearbeiten $ {} HADOOP_HOME /etc/hadoop/hadoop-env.sh gesetzt HADOOP_LOG_DIR:

HADOOP_LOG_DIR="/var/log/hadoop" 
export HADOOP_LOG_DIR=${HADOOP_LOG_DIR}/$USER 
Verwandte Themen