0
Ich habe eine Datei auf HDFs mit Größe 11 GB. Ich möchte es in mehrere Dateien in 1 GB teilen. Wie kann ich das tun? Meine hadoop Version ist 2.7.3Hadoop-Befehl zum Aufteilen von Dateien auf HDFS
Ich habe eine Datei auf HDFs mit Größe 11 GB. Ich möchte es in mehrere Dateien in 1 GB teilen. Wie kann ich das tun? Meine hadoop Version ist 2.7.3Hadoop-Befehl zum Aufteilen von Dateien auf HDFS
Wenn Sie Funken haben, versuchen unten-
Unten Beispiel teilt Eingabedatei in zwei Dateien:
spark-shell
scala> sc.textFile("/xyz-path/input-file",2).saveAsTextFile("/xyz-path/output-file")
Warum wollen Sie das aufzuspalten Datei ? –
Mögliches Duplikat -https: //stackoverflow.com/questions/29567139/how-to-divide-a-big-dataset-into-multiple-small-files-in-hadoop-in-an-effizient –
'hdfs dfs - Ddfs.block.size = 1G -put file' – philantrovert