2017-07-26 2 views
0

Ich habe eine Datei auf HDFs mit Größe 11 GB. Ich möchte es in mehrere Dateien in 1 GB teilen. Wie kann ich das tun? Meine hadoop Version ist 2.7.3Hadoop-Befehl zum Aufteilen von Dateien auf HDFS

+0

Warum wollen Sie das aufzuspalten Datei ? –

+0

Mögliches Duplikat -https: //stackoverflow.com/questions/29567139/how-to-divide-a-big-dataset-into-multiple-small-files-in-hadoop-in-an-effizient –

+0

'hdfs dfs - Ddfs.block.size = 1G -put file' – philantrovert

Antwort

0

Wenn Sie Funken haben, versuchen unten-

Unten Beispiel teilt Eingabedatei in zwei Dateien:

spark-shell

scala> sc.textFile("/xyz-path/input-file",2).saveAsTextFile("/xyz-path/output-file") 
Verwandte Themen