Der folgende Code fügt die doppelten Anführungszeichen nicht hinzu, was der Standardwert ist. Ich versuchte auch, # und einfaches Anführungszeichen hinzuzufügen, die Option quote
mit keinem Erfolg verwendend. Ich verwendete auch quoteMode
mit ALL
und NON_NUMERIC
Optionen, noch keine Änderung in der Ausgabe.So speichern Sie CSV mit allen Feldern in Anführungszeichen?
s2d.coalesce(64).write
.format("com.databricks.spark.csv")
.option("header", "false")
.save(fname)
Gibt es noch andere Optionen, die ich ausprobieren kann? Ich benutze Spark-CSV 2.11 über Funken 2.1.
Output es produziert:
d4c354ef,2017-03-14 16:31:33,2017-03-14 16:31:46,104617772177,340618697
Output Ich suche:
“d4c354ef”,”2017-03-14 16:31:33”,”2017-03-14 16:31:46”,104617772177,340618697
Danke. Aber ich verwende nicht die native Spark-Bibliothek. Ich benutze die Databricks Spark-CSV-Bibliothek. https://github.com/databricks/spark-csv –
Ich weiß, dass Sie sind, aber Sie sollten wechseln, weil es veraltet ist, wie sie bemerken. Außerdem sind sie nicht zwei verschiedene Dinge. Die Funktionalität wurde in Spark absorbiert und Ihre Frage zeigt, warum Sie wechseln sollten. Hilfe zu veralteten Bibliotheken zu bekommen, wird immer schwieriger. – Vidya
es ist nur quoteAll traurig ist verfügbar in spark 2.1. Ich stehe vor einem ähnlichen Problem, wo ich 'quoteMode' in Spark 2 brauche – ajkl