Ich funke-1.0.0 durch Verbindung zu einem Funke Standalone-Cluster, die einen Master und zwei Slaves hat. Ich habe wordcount.py von Spark-submit ausgeführt, tatsächlich liest es Daten von HDFS und schreibt die Ergebnisse auch in HDFS. Bis jetzt ist alles in Ordnung und die Ergebnisse werden korrekt in HDFS geschrieben. Aber die Sache macht mich besorgt ist, dass, wenn ich für jeden Arbeiter Stdout überprüfe, es leer ist, weiß ich nicht, ob es leer sein soll? und ich habe folgende in stderr:Apache Spark Stderr und Stdout
Stderr Log-Seite für einige (App-20140704174955-0002)
Spark
Executor Command: "java" "-cp" "::
/usr/local/spark-1.0.0/conf:
/usr/local/spark-1.0.0
/assembly/target/scala-2.10/spark-assembly-1.0.0-hadoop1.2.1.jar:/usr/local/hadoop/conf" "
-XX:MaxPermSize=128m" "-Xms512M" "-Xmx512M" "org.apache.spark.executor.CoarseGrainedExecutorBackend
" "akka.tcp://[email protected]:54477/user/CoarseGrainedScheduler" "0" "slave2" "1
" "akka.tcp://[email protected]:41483/user/Worker" "app-20140704174955-0002"
========================================
14/07/04 17:50:14 ERROR CoarseGrainedExecutorBackend:
Driver Disassociated [akka.tcp://[email protected]:33758] ->
[akka.tcp://[email protected]:54477] disassociated! Shutting down.
Das ist OK. Ihr Treiberprogramm hat seine Arbeit erledigt (Wortzählung) und getrennt. – cloud
Was ist mit Stdout, es ist leer, macht es Sinn? – user3789843