Ich habe versucht, Wordcount-Java-Programm auf Hadoop-Multinode-Cluster mit Eclipse (was mit Einzelknoten-Cluster funktionierte aber nicht in Multinode funktioniert). Ich erhalte folgende Informationen zurückMapreduce Wordcount (Java-Code) auf Multi-Node-Cluster ausgeführt
INFO ipc.Client: Erneut versuchen, eine Verbindung zum Server herzustellen: localhost/127.0.0.1: 54310. Bereits versucht 0 mal (s); Die Wiederholungsrichtlinie lautet RetryUpToMaximumCountWithFixedSleep (maxRetries = 10, sleepTime = 1 SECONDS) 16/04/24 21:30:46 INFO ipc.Client: Erneut versuchen, eine Verbindung zum Server herzustellen: localhost/127.0.0.1: 54310. Bereits 1 Mal probiert; wiederholen Politik ist RetryUpToMaximumCountWithFixedSleep (MaxRetries = 10, sleeptime = 1 SEKUNDEN)
public static void main(String[] args) throws Exception
{
Configuration conf = new Configuration();
Job job = new Job(conf, "wordcount");
job.setOutputKeyClass(Text.class);
job.setOutputValueClass(IntWritable.class);
job.setMapperClass(Map.class);
job.setReducerClass(Reduce.class);
job.setInputFormatClass(TextInputFormat.class);
job.setOutputFormatClass(TextOutputFormat.class);
FileInputFormat.addInputPath(job, new Path("hdfs://localhost:54310/user/hduser/sam/"));
FileOutputFormat.setOutputPath(job, new Path("hdfs://localhost:54310/user/hduser/wc-output"));
job.waitForCompletion(true);
}
} *
Ich denke, dass es etwas falsch mit den Pfaden ist. ich diesen Code an Master Ende läuft
Nein, Sir, die gleichen Informationen wurden angezeigt –
Versuchen hdfs dfs -ls/user/hduser/sam/ wenn es funktioniert dann geben wir wahrscheinlich den falschen Port. Überprüfen Sie, ob der namenode-Prozess auf dem Knoten ausgeführt wird. – deba