Hallo Ich habe Code einfach erhalten Wortzählungen aus einem Dokument. Ich muss auch eine Karte verwenden, um den Datenwert nachzuschlagen, bevor die Ausgabe erzeugt wird. Hier ist der Code.reduceByKey ist kein Mitglied
requests
.filter(_.description.exists(_.length > 0))
.flatMap { case request =>
broadcastDataMap.value.get(request.requestId).map {
data =>
val text = Seq(
data.name,
data.taxonym,
data.pluralTaxonym,
request.description.get
).mkString(" ")
getWordCountsInDocument(text).map { case (word, count) =>
(word, Map(request.requestId -> count))
}
}
}
.reduceByKey(mergeMap)
Die Fehlermeldung ist
reduceByKey is not a member of org.apache.spark.rdd.RDD[scala.collection.immutable.Map[String,scala.collection.immutable.Map[Int,Int]]]
Wie kann ich dieses Problem lösen? Ich muss getWordCountsInDocument aufrufen. Vielen Dank!
brauchen Sie PairRDD. Versuchen Sie, .map() vor reduceByKey – Natalia