2017-09-09 3 views
1

Kann mir sagen, wie Spark-Datenframe in Array [String] in Scala konvertieren.Convert Spark-Datenframe in Array [String]

Ich habe Folgendes verwendet.

x =df.select(columns.head, columns.tail: _*).collect() 

Die obige Snippet gibt mir ein Array [Row] und nicht Array [Zeichenfolge]

+1

'.map {Reihe => row.toString()} '?? –

+0

danke für die Antwort. Das macht die Arbeit. Können Sie mir sagen, wenn wir verwenden. Map {row => row.toString() .mkString (",")} beseitigen Sie die Klammer "[" und "]", wenn wir es ausdrucken. – Bharath

+0

mkString erzeugt einen String aus einem Array ... Das ist alles Scala-Wissen. Wie würden Sie ein Array zu einem Stich in Java oder Python machen? Mein Punkt ist, Ihre Frage/Problem ist völlig außerhalb von Spark –

Antwort

1

Diese den Trick tun sollten:

df.select(columns: _*).collect.map(_.toSeq) 
0

Die Antwort von einem Benutzer namens cricket_007 zur Verfügung gestellt wurde. Sie verwenden folgendes Array [Zeile], um Array [Zeichenfolge] zu konvertieren:

x =df.select(columns.head, columns.tail: _*).collect().map { row => row.toString() } 

Danke, Bharath

+0

'collect()' auf einem DataFrame ist oft nicht, wie Sie es verwenden würden. Sie zeigen es vielmehr() –