2016-10-07 3 views
1

Ich habe kürzlich eine Anwendung von Spark 1.4.1 auf 1.6.0 aktualisiert, wo die Unit-Tests in meiner Anwendung (in ScalaTest 3.0) plötzlich fehlschlagen, was nicht auf API- oder Verhaltensänderungen zurückzuführen ist Funke.Spark-Unit-Test fehlgeschlagen wegen Phasenausfall

Das Seltsame ist, dass jedes Mal, wenn ich die Tests mit sbt test ein anderer Test nicht bestanden und immer mit der folgenden Meldung führen:

[info] org.apache.spark.SparkException: Job aborted due to stage failure: Task 87 in stage 206.0 failed 1 times, most recent failure: Lost task 87.0 in stage 206.0 (TID 4228, localhost): ExecutorLostFailure (executor driver exited caused by one of the running 
tasks) Reason: Executor heartbeat timed out after 148400 ms 
[info] Driver stacktrace: 
[info] at org.apache.spark.scheduler.DAGScheduler.org$apache$spark$scheduler$DAGScheduler$$failJobAndIndependentStages(DAGScheduler.scala:1431) 
[info] at org.apache.spark.scheduler.DAGScheduler$$anonfun$abortStage$1.apply(DAGScheduler.scala:1419) 
[info] at org.apache.spark.scheduler.DAGScheduler$$anonfun$abortStage$1.apply(DAGScheduler.scala:1418) 
[info] at scala.collection.mutable.ResizableArray$class.foreach(ResizableArray.scala:59) 
[info] at scala.collection.mutable.ArrayBuffer.foreach(ArrayBuffer.scala:47) 
[info] at org.apache.spark.scheduler.DAGScheduler.abortStage(DAGScheduler.scala:1418) 
[info] at org.apache.spark.scheduler.DAGScheduler$$anonfun$handleTaskSetFailed$1.apply(DAGScheduler.scala:799) 
[info] at org.apache.spark.scheduler.DAGScheduler$$anonfun$handleTaskSetFailed$1.apply(DAGScheduler.scala:799) 
[info] at scala.Option.foreach(Option.scala:236) 
[info] at org.apache.spark.scheduler.DAGScheduler.handleTaskSetFailed(DAGScheduler.scala:799) 
[info] ... 

ich folgendes in build.sbt gesetzt haben:

javaOptions in test += "-Xmx2G" 
fork in test := true 
parallelExecution in test := false 

Also, die Unit-Tests sind in Ordnung, aber es ist etwas los, dass ich nicht in den Finger legen kann. Hat jemand eine Idee?

Antwort

1

Da dieser Code funktioniert hat, vermute ich, dass sich die Standardspeichereinstellungen (entweder Executor oder Treiber oder Overhead) mit dem Upgrade geändert haben.

Bitte melden Sie die Gameprotokolle für Ihre Anwendungs-ID an. Es wird mehr Details des Fehlers haben.

Auch https://community.cloudera.com/t5/Advanced-Analytics-Apache-Spark/Executor-Timed-Out/td-p/45097, bitte

+0

Es gibt keine GARN Protokolle auf diesen Link für einen ähnlichen Fehler, weil die Tests lokal auf meinem Rechner laufen. – Ian

Verwandte Themen