Hallo Ich bin neu in Hadoop und es ist FileSystem. Ich sah zwei verschiedene Beispiele von WordCount mit JobConf
und Configuration
. Was ist der Unterschied in ihnen?JobConf v/s Konfiguration für Hadoop 1.0.4
Ich studierte, dass JobConf
war Teil der alten Paket org.apache.hadoop.mapred
(die in 0.20.x veraltet), aber die Konfiguration ist Teil des neuen Pakets org.apache.hadoop.mapreduce
. Aber jetzt in v1.0.4 ist es nicht mehr veraltet.
Zur Zeit haben wir zwei Möglichkeiten, map reduce jobs in Java auszuführen. Eine davon ist die Verwendung (erweiterender) Klassen in org.apache.hadoop.mapreduce
Paket und andere durch Implementieren von Klassen im org.apache.hadoop.mapred
Paket.
Ich möchte wissen:
Was ist der Unterschied zwischen
mapred
undmapreduce
Paketstruktur und warum istmapred
un-veraltet?Welcher Ansatz ist besser für v1.0.4 zu verwenden und warum?
JobConf
oderConfiguration
?Was ist besser für v1.0.4?
mapred
odermapreduce
?
mögliches Duplikat von [Ist es besser, das mapred- oder mapreduce-Paket zum Erstellen eines Hadoop-Jobs zu verwenden?] (Http://stackoverflow.com/questions/7598422/is-it-better-to-use-the- mapred-or-the-mapreduce-package-zu-erstellen-a-hadoop-job) –
Ich habe diese Antwort gelesen. Dieser Ansatz war für v0.20 und v0.21/22. Aber hier frage ich nach v1.0.4. Bitte verbinde es nicht damit. Und treffen Sie keine Entscheidung, bevor Sie vollständig verstanden haben. –
1.0 ist nichts anderes als die Version zwischen 0,20 und 0,22. Sehen Sie es als eine polierte Version 20.x. Sie sollten nach vorhandenen Antworten suchen, bevor Sie eine neue Frage hinzufügen, ganz zu schweigen von der Suche nach der Versionsnummerierung. –