2017-02-03 2 views
-2

Hallo Ich habe meine durchschnittliche Anzahl der Wörter in Java in cloudera vm 4.2.1 p und ich habe Jar-Datei konvertiert implementiert und lief den Befehl: hadoop jar averagewordlength.jar stubs.AvgWordLength shakespeare wordlengHadoop in Cloudera Pfad VMware

Weiter: Ich habe den Shakespeare korrekt ausgeführt und konnte meine Datei nicht ausführen (was ich erstellt habe: newfile). Es wirft eine Ausnahme:

Exception in thread "main" org.apache.hadoop.mapreduce.lib.input.InvalidInputException: Input Pfad nicht existiert: hdfs: //0.0.0.0: 8020/Benutzer/Ausbildung/newfile bei org.apache.hadoop.mapreduce.lib.input.FileInputFormat.listStatus (FileInputFormat.java:231) bei org.apache.hadoop.mapreduce.lib.input.FileInputFormat.getSplits (FileInputFormat. Java: 248) bei org.apache.hadoop.mapred.JobClient.writeNewSplits (JobClient.java:1064) bei org.apache.hadoop.mapred.JobClient.writeSplits (JobClient.java:1081) bei org.apache.hadoop.mapred.JobClient.access $ 600 (JobClient.java:174) bei org.apache.hadoop.mapred.JobClient $ 2.run (JobClient.java:993) um org.apache.hadoop. mapred.JobClient $ 2.run (JobClient.java:946) um java.security.AccessController.doPrivileged (Native Methode) um javax.security.auth.Subject.doAs (Subject.java:396) um org.apache. hadoop.security.UserGroupInformation.doAs (UserGroupInformation.java:1408) bei org.apache.hadoop.mapred.JobClient.submitJobInternal (JobClient.java)

führen Sie in dem Pfad der newfile für einzufügen Überprüfung meine Lösung.

Antwort

0

Scheint, dass Ihre Hadoop-Konfiguration nicht korrekt ist.

hdfs://0.0.0.0 ist keine gültige Adresse

cloudera vm 4.2.1? Versuchen Sie, laden Sie die aktuelle CDH 5.x VM

0

Ich habe es mit dem Befehl

hadoop fs -Setzen LocalPath

Verwandte Themen