Ich habe begonnen, meine Pyspark-Anwendung in Java-Implementierung zu schreiben. Ich benutze Java 8. Ich habe gerade begonnen, einige der grundlegenden Funke-Programme in Java auszuführen. Ich habe das folgende wordcount Beispiel verwendet.spark Typenkonflikt: kann nicht von JavaRDD konvertieren <Object> zu JavaRDD <String>
SparkConf conf = new SparkConf().setMaster("local").setAppName("Work Count App");
// Create a Java version of the Spark Context from the configuration
JavaSparkContext sc = new JavaSparkContext(conf);
JavaRDD<String> lines = sc.textFile(filename);
JavaPairRDD<String, Integer> counts = lines.flatMap(line -> Arrays.asList(line.split(" ")))
.mapToPair(word -> new Tuple2(word, 1))
.reduceByKey((x, y) -> (Integer) x + (Integer) y)
.sortByKey();
Ich erhalte Type mismatch: cannot convert from JavaRDD<Object> to JavaRDD<String>
Fehler in lines.flatMap(line -> Arrays.asList(line.split(" ")))
Wenn ich gegoogelt, in dem alle Java 8 basierend Funken Beispiel sah ich die gleiche oben implementation.What in meinem environemnt oder das Programm falsch gelaufen ist.
Kann mir jemand helfen?
Ist 'sc' eine' JavaSparkContext' Instanz. – Ravikumar
@Ravikumar, Ja, es ist JavaSparkContext. – Backtrack