Ich habe Hadoop 2.5.2 für einen 10-Knoten-Cluster installiert und konfiguriert. 1 fungiert als Masternode und andere Knoten als Slavenodes.hadoop fs -ls führt zu "keine solche Datei oder Verzeichnis"
Ich habe ein Problem bei der Ausführung von Hadoop fs-Befehlen. Der Befehl hadoop fs -ls funktioniert problemlos mit dem HDFS-URI. Es gibt Meldung "ls:` '. Keine solche Datei oder das Verzeichnis", wenn ohne HDFS URI
verwendet[email protected]:~$ hadoop fs -ls
15/01/30 17:03:49 WARN util.NativeCodeLoader: Unable to load native-hadoop
ibrary for your platform... using builtin-java classes where applicable
ls: `.': No such file or directory
[email protected]:~$
Während, den gleichen Befehl mit HDFS URI Ausführung
[email protected]:~$ hadoop fs -ls hdfs://101-master:50000/
15/01/30 17:14:31 WARN util.NativeCodeLoader: Unable to load native-hadoop
library for your platform... using builtin-java classes where applicable
Found 3 items
drwxr-xr-x - ubuntu supergroup 0 2015-01-28 12:07 hdfs://101-master:50000/hvision-data
-rw-r--r-- 2 ubuntu supergroup 15512587 2015-01-28 11:50 hdfs://101-master:50000/testimage.seq
drwxr-xr-x - ubuntu supergroup 0 2015-01-30 17:03 hdfs://101-master:50000/wrodcount-in
[email protected]:~$
I Ausnahme in MapReduce bin immer Programm aufgrund dieses Verhaltens. jarlib bezieht sich auf den Speicherort der HDFS-Datei, während ich möchte, dass jarlib auf die JAR-Dateien verweist, die im lokalen Dateisystem auf den Hadoop-Knoten gespeichert sind.