Ich bekomme Fehler, wenn Sie "oder" verwenden, um den Datenrahmen zu filtern. Unten ist der Code:Verwenden von "oder" in Spark
df.select("InvoiceNo","Description").where((col("InvoiceNo") !== 536365) || (col("UnitPrice") > 600))
ich versucht mit „oder“ auch, aber die gleichen Fehler.
df.select("InvoiceNo","Description").where((col("InvoiceNo") !== 536365).or(col("UnitPrice") > 600))
Fehler:
org.apache.spark.sql.AnalysisException: cannot resolve 'UnitPrice' given input columns: [InvoiceNo, Description]
Wo könnte ich falsch gemacht habe? Pls Hilfe.
Danke für die Erklärung und Lösung. Es funktionierte – Jayson