Ich habe eine Hadoop-Umgebung mit einem Knoten auf CentOS mithilfe des Cloudera-CDH-Repositorys erstellt. Wenn ich eine lokale Datei auf HDFS kopieren möchten, verwendete ich den Befehl:hadoop fs -put command
sudo -u hdfs hadoop fs -put /root/MyHadoop/file1.txt/
Aber das Ergebnis bedrückte mich:
put: '/root/MyHadoop/file1.txt': No such file or directory
Ich bin sicher, dass diese Datei vorhanden ist.
Bitte helfen Sie mir, Danke!
Dank setzen, aber ich versuchte, diese Datei an einem anderen Ort zu bewegen, geben Sie den Follow-Befehl: {sudo - hdfs hadoop fs -put /home/skfeng/Downloads/hadoop-book-master/test-data/ch1/file1.txt /} funktioniert immer noch nicht und hat die gleichen Ergebnisse: {put: '/ home/skfeng /Downloads/hadoop-book-master/test-data/ch1/file1.txt ': Keine solche Datei oder Verzeichnis } – skfeng
Und hat Benutzer 'hdfs' Zugriffsrechte auf das Heim des Benutzers' skfeng'? –
Aktualisierte Antwort. Probieren Sie die Befehlsliste aus und kreuzen Sie die Finger. –