Hallo Ich habe meine durchschnittliche Anzahl der Wörter in Java in cloudera vm 4.2.1 p und ich habe Jar-Datei konvertiert implementiert und lief den Befehl: hadoop jar averagewordlength.jar stubs.AvgWordLength shakespeare wordlengHadoop in Cloudera Pfad VMware
Weiter: Ich habe den Shakespeare korrekt ausgeführt und konnte meine Datei nicht ausführen (was ich erstellt habe: newfile). Es wirft eine Ausnahme:
Exception in thread "main" org.apache.hadoop.mapreduce.lib.input.InvalidInputException: Input Pfad nicht existiert: hdfs: //0.0.0.0: 8020/Benutzer/Ausbildung/newfile bei org.apache.hadoop.mapreduce.lib.input.FileInputFormat.listStatus (FileInputFormat.java:231) bei org.apache.hadoop.mapreduce.lib.input.FileInputFormat.getSplits (FileInputFormat. Java: 248) bei org.apache.hadoop.mapred.JobClient.writeNewSplits (JobClient.java:1064) bei org.apache.hadoop.mapred.JobClient.writeSplits (JobClient.java:1081) bei org.apache.hadoop.mapred.JobClient.access $ 600 (JobClient.java:174) bei org.apache.hadoop.mapred.JobClient $ 2.run (JobClient.java:993) um org.apache.hadoop. mapred.JobClient $ 2.run (JobClient.java:946) um java.security.AccessController.doPrivileged (Native Methode) um javax.security.auth.Subject.doAs (Subject.java:396) um org.apache. hadoop.security.UserGroupInformation.doAs (UserGroupInformation.java:1408) bei org.apache.hadoop.mapred.JobClient.submitJobInternal (JobClient.java)
führen Sie in dem Pfad der newfile für einzufügen Überprüfung meine Lösung.