Ich verwende this Methode, um CSV-Datei schreiben. Aber es wird eine Datei mit mehreren Teiledateien erzeugen. Das ist nicht was ich will; Ich brauche es in einer Datei. Und ich fand auch another post mit scala, um alles zu erzwingen, auf einer Partition berechnet zu werden, und dann eine Datei zu bekommen.Wie schreibe ich CSV-Datei in eine Datei von pyspark
Erste Frage: Wie erreicht man das in Python?
Im zweiten Post wird auch gesagt, dass ein Hadoop function
mehrere Dateien zu einem zusammenführen könnte.
Zweite Frage: ist es möglich, zwei Dateien in Spark zusammenführen?
Dosen scheinen zu arbeiten, macht meinen Master zum Absturz –
sagst du, df.coalesce funktioniert nicht? !! –
Ja, das ist der Fall hier seltsam –