Das Problem entsteht, wenn I describe
Funktion auf einem Datenrahmen nennen:Funken 1,6: Filterung Datenrahmen erzeugt, indem beschreiben()
val statsDF = myDataFrame.describe()
Funktion beschreibt Aufruf ergibt die folgende Ausgabe:
statsDF: org.apache.spark.sql.DataFrame = [summary: string, count: string]
I zeigen statsDF
normalerweise durch den Aufruf statsDF.show()
+-------+------------------+
|summary| count|
+-------+------------------+
| count| 53173|
| mean|104.76128862392568|
| stddev|3577.8184333911513|
| min| 1|
| max| 558407|
+-------+------------------+
Ich möchte nun die Standardabweichung und den Mittelwert von statsDF
zu bekommen, aber wenn ich die Werte versuche durch wie etwas zu tun zu sammeln:
val temp = statsDF.where($"summary" === "stddev").collect()
Ich erhalte Task not serializable
Ausnahme.
Ich bin auch mit Blick auf die gleiche Ausnahme, wenn ich rufe:
statsDF.where($"summary" === "stddev").show()
Es sieht aus wie wir nicht Datenrahmen erzeugt durch describe()
Funktion filtern können?
Ich stimme dies auf. Es ist jetzt komisch, in der Lage zu sein, auf den DF zu filmen, der von describe erstellt wurde – eliasah