Ich habe einen Datenframe in Spark und ich habe einige Filter auf diesen Datenrahmen angewendet. Basierend auf den Datensätzen, die diese Filter durchlaufen haben, habe ich eine neue Spalte im Dataframe hinzugefügt. Siehe den folgenden Code:Vereinfachen mit Spalte in Spark
val rule_name = when(col("product_name").isin("N") && col("territory").isin("Metro","GA"), "rule1").otherwise(when(col("product_name").isin("XGE") && col("territory").isin("14721"), "rule2").otherwise(""))
val df_final = df_join.withColumn("rule_name" , rule_name)
Zum besseren Sichtbarkeit Zweck, ich mag in mehreren Zeilen Code unten brechen:
val rule_name = when(col("product_name").isin("N") && col("territory").isin("Metro","GA"), "rule1").otherwise(when(col("product_name").isin("XGE") && col("territory").isin("14721"), "rule2").otherwise(""))
Gibt es eine Möglichkeit, dies in SCALA und pyspark in Funken zu erreichen?