2016-04-24 7 views
0

Ich habe versucht, Wordcount-Java-Programm auf Hadoop-Multinode-Cluster mit Eclipse (was mit Einzelknoten-Cluster funktionierte aber nicht in Multinode funktioniert). Ich erhalte folgende Informationen zurückMapreduce Wordcount (Java-Code) auf Multi-Node-Cluster ausgeführt

INFO ipc.Client: Erneut versuchen, eine Verbindung zum Server herzustellen: localhost/127.0.0.1: 54310. Bereits versucht 0 mal (s); Die Wiederholungsrichtlinie lautet RetryUpToMaximumCountWithFixedSleep (maxRetries = 10, sleepTime = 1 SECONDS) 16/04/24 21:30:46 INFO ipc.Client: Erneut versuchen, eine Verbindung zum Server herzustellen: localhost/127.0.0.1: 54310. Bereits 1 Mal probiert; wiederholen Politik ist RetryUpToMaximumCountWithFixedSleep (MaxRetries = 10, sleeptime = 1 SEKUNDEN)

public static void main(String[] args) throws Exception 
{ 
Configuration conf = new Configuration(); 

    Job job = new Job(conf, "wordcount"); 

job.setOutputKeyClass(Text.class); 
job.setOutputValueClass(IntWritable.class); 

job.setMapperClass(Map.class); 
job.setReducerClass(Reduce.class); 

job.setInputFormatClass(TextInputFormat.class); 
job.setOutputFormatClass(TextOutputFormat.class); 

FileInputFormat.addInputPath(job, new Path("hdfs://localhost:54310/user/hduser/sam/")); 
FileOutputFormat.setOutputPath(job, new Path("hdfs://localhost:54310/user/hduser/wc-output")); 

job.waitForCompletion(true); 

}

} *

Ich denke, dass es etwas falsch mit den Pfaden ist. ich diesen Code an Master Ende läuft

Antwort

0

führt der Befehl

hdfs dfs -ls hdfs://localhost:54310/user/hduser/sam/ 

Arbeit?

+0

Nein, Sir, die gleichen Informationen wurden angezeigt –

+0

Versuchen hdfs dfs -ls/user/hduser/sam/ wenn es funktioniert dann geben wir wahrscheinlich den falschen Port. Überprüfen Sie, ob der namenode-Prozess auf dem Knoten ausgeführt wird. – deba

Verwandte Themen