Kann mir sagen, wie Spark-Datenframe in Array [String] in Scala konvertieren.Convert Spark-Datenframe in Array [String]
Ich habe Folgendes verwendet.
x =df.select(columns.head, columns.tail: _*).collect()
Die obige Snippet gibt mir ein Array [Row] und nicht Array [Zeichenfolge]
'.map {Reihe => row.toString()} '?? –
danke für die Antwort. Das macht die Arbeit. Können Sie mir sagen, wenn wir verwenden. Map {row => row.toString() .mkString (",")} beseitigen Sie die Klammer "[" und "]", wenn wir es ausdrucken. – Bharath
mkString erzeugt einen String aus einem Array ... Das ist alles Scala-Wissen. Wie würden Sie ein Array zu einem Stich in Java oder Python machen? Mein Punkt ist, Ihre Frage/Problem ist völlig außerhalb von Spark –