Ich verwende HashPartioner
, aber ein unerwartetes Ergebnis erhalten. Ich verwende 3 verschiedene String als Schlüssel, und geben Partitionsparameter als 3, so erwarte ich 3 Partitionen.Spark HashPartitioner Unerwartete Partitionierung
val cars = Array("Honda", "Toyota", "Kia")
val carnamePrice = sc.parallelize(for {
x <- cars
y <- Array(100,200,300)
} yield (x, y), 8)
val rddEachCar = carnamePrice.partitionBy(new HashPartitioner(3))
val mapped = rddEachCar.mapPartitionsWithIndex{
(index, iterator) => {
println("Called in Partition -> " + index)
val myList = iterator.toList
myList.map(x => x + " -> " + index).iterator
}
}
mapped.take(10)
Das Ergebnis ist unten. Es gibt nur 2 Partitionen. Ich habe Hash-Codes für String (69909220 75427 -1783892706) überprüft. Was könnte hier ein Problem sein? Wahrscheinlich habe ich den Partitionierungsalgorithmus falsch verstanden.
Array[String] = Array((Toyota,100) -> 0, (Toyota,200) -> 0, (Toyota,300) -> 0, (Honda,100) -> 1, (Honda,200) -> 1, (Honda,300) -> 1, (Kia,100) -> 1, (Kia,200) -> 1, (Kia,300) -> 1)