Ich habe einen pyspark DataFrame, sagen df1, mit mehreren Spalten.Erstellen einer Spalte basierend auf einer Liste und Spalte in Pyspark
Ich habe auch eine Liste, sagen wir l = ['a','b','c','d']
und diese Werte sind die Teilmenge der Werte in einer der Spalten im DataFrame.
Nun würde Ich mag so etwas tun:
df2 = df1.withColumn('new_column', expr("case when col_1 in l then 'yes' else 'no' end"))
Dies ist aber die folgenden Fehler werfen:
failure: "(" expected but identifier l found.
Jede Idee, wie diese Fehler zu beheben oder einen besseren Weg zu tun es?
Es funktioniert. Danke vielmals! :) – Hemant