Ich versuche, einen Datenrahmen als CSV-Datei in meinem lokalen Laufwerk zu speichern. Aber wenn ich das mache, bekomme ich einen Ordner und innerhalb dieser Partition wurden Dateien geschrieben. Gibt es einen Vorschlag, dies zu überwinden?Wie schreibt man Daten als einzelne (normale) CSV-Datei in Spark?
Meine Anforderung: Um eine normale CSV-Datei mit dem tatsächlichen Namen im Code erhalten.
Code Snippet: dataframe.coalesce(1).write.mode("overwrite").format("com.databricks.spark.csv").option("header", "true").csv("E:/dataframe.csv")