Ich bin relativ neu in Spark und Scala.Konvertieren von RDD [org.apache.spark.sql.Row] zu RDD [org.apache.spark.mllib.linalg.Vector]
beginne ich mit der folgenden Datenrahmen (einzelne Spalte aus einer dichten Vektor von Doubles hergestellt):
scala> val scaledDataOnly_pruned = scaledDataOnly.select("features")
scaledDataOnly_pruned: org.apache.spark.sql.DataFrame = [features: vector]
scala> scaledDataOnly_pruned.show(5)
+--------------------+
| features|
+--------------------+
|[-0.0948337274182...|
|[-0.0948337274182...|
|[-0.0948337274182...|
|[-0.0948337274182...|
|[-0.0948337274182...|
+--------------------+
Eine gerade Umwandlung zu RDD eine Instanz von org.apache.spark.rdd.RDD ergibt [ org.apache.spark.sql.Row]:
scala> val scaledDataOnly_rdd = scaledDataOnly_pruned.rdd
scaledDataOnly_rdd: org.apache.spark.rdd.RDD[org.apache.spark.sql.Row] = MapPartitionsRDD[32] at rdd at <console>:66
Wer weiß, wie zu einer Instanz von org.apache.spark.rdd.RDD [org.apache.spark.mllib.linalg dieses DF zu konvertieren. Vektor] stattdessen? Meine verschiedenen Versuche waren bisher erfolglos.
Vielen Dank im Voraus für alle Hinweise!