In Spark-Scala bei dem Versuch, subtrahieren Methode zu verwenden, erhalte ich die Fehler folgendenWert subtrahieren ist kein Mitglied von org.apache.spark.sql.DataFrame in Spark-Scala
<console>:29: error: value subtract is not a member of org.apache.spark.sql.DataFrame
Aber von den folgenden Links I sieht es in Python vorhanden ist, obwohl
https://forums.databricks.com/questions/7505/comparing-two-dataframes.html https://spark.apache.org/docs/1.3.0/api/python/pyspark.sql.html?highlight=dataframe#pyspark.sql.DataFrame.subtract
haben wir Methode überhaupt in dem Spark-Scala subtrahieren haben? Wenn nicht, was ist der Ersatz dafür?
Mein Beispielcode sieht wie folgt aus:
scala> val myDf1 = sc.parallelize(Seq(1,2,2)).toDF
myDf1: org.apache.spark.sql.DataFrame = [value: int]
scala> val myDf2 = sc.parallelize(Seq(1,2)).toDF
myDf2: org.apache.spark.sql.DataFrame = [value: int]
scala> val result = myDf1.subtract(myDf2)
<console>:28: error: value subtract is not a member of org.apache.spark.sql.DataFrame
val result = myDf1.subtract(myDf2)
Welche Version von Funken verwenden Sie? – eliasah