ich den nächsten Code verwenden:Wie kann ich Spark Ergebnisdateien ohne Repartition und CopyMerge zusammenführen?
csv.saveAsTextFile(pathToResults, classOf[GzipCodec])
pathToResults Verzeichnis viele Dateien wie Teil 0000, Teil-0001 usw. I() kann verwendet werden FileUtil.copyMerge hat, aber es ist wirklich langsam, dann ist es herunterladen alle auf Dateien Treiberprogramm und lade sie dann in hadoop hoch. Aber FileUtil.copyMerge() schneller als:
csv.repartition(1).saveAsTextFile(pathToResults, classOf[GzipCodec])
Wie kann ich fusionieren Funkenergebnisdateien ohne repartition und FileUtil.copyMerge()?