Ich schreibe auf s3 mit Funken als AVRO-Datei. Es wird als einzelne Datei gespeichert, aber ich möchte es beim Schreiben in mehrere Dateien aufteilen.Wie kann ich über Spark als Chunks in S3 schreiben?
I verwendet:
df.coalesce(6).write.json(path)
aber es ist immer noch als eine einzelne Datei zu speichern.
Jede Hilfe wird geschätzt!
Danke.!
Sie können dieses Paket überprüfen kann es helfen u https://spark-packages.org/package/knoldus/spark-s3 –