2017-01-27 2 views
1

Ich habe einen Batch-Datenfluss-Job, der mehrere Instanzen von java.lang.RuntimeException: unexpected in den Protokollen hat."java.io.IOException: INTERNAL" Ausnahmen verursacht Pipeline fehlschlagen

Graben tiefer, sah ich es ein paar verschiedene Ausnahmen waren:

  • java.io.IOException: INTERNAL: Detected non-monotonic keys.
  • java.io.IOException: INTERNAL: Corruption: block checksum
  • java.io.IOException: INTERNAL: Corruption: bad entry in block
  • java.io.IOException: DATA_LOSS: record checksum mismatch

Ich glaube, dies ist nur ein ein- sein kann aus Bug, aber ich weiß nicht, den bevorzugten Ort zu Repo rt solche Probleme, also poste ich hier für Sichtbarkeit.

die Job-ID ist 2017-01-26_13_26_59-15900546489513181319

+0

Hallo, ich frage mich, ob Sie bitte ein bisschen mehr Informationen zur Verfügung stellen, um uns zu helfen, dieses Problem zu lösen. Laden Ihre Jars einen nativen/JNI-Code? Haben Sie eine zuverlässige Möglichkeit, diesen Fehler zu reproduzieren? –

+0

Hallo Alex, wir erweiterten 'FileBasedSink.FileBasedWriter', um in einen GZIPOutputStream zu schreiben. Ich habe keine zuverlässige Möglichkeit, diesen Fehler zu reproduzieren, ich habe diese Pipeline aus verschiedenen Quellen über 300 Mal gelesen und habe nur diese internen Fehler in diesem Job gesehen. Die einzige Ähnlichkeit zwischen diesem Fehler und anderen fehlgeschlagenen Jobs (<10 insgesamt) war das Vorhandensein dieser Ausnahme: 'java.lang.RuntimeException: java.io.IOException: INTERNAL: Schreiben abgelehnt (Schreib-ID nicht gefunden)'. – Thang

+0

Außerdem habe ich diesen Job mit den gleichen Parametern erneut ausgeführt und es ist dieses Mal gelungen. – Thang

Antwort

0

Dies kann das Ergebnis eines schlechten Handling der Maschine Shuffle Daten sein, und gibt einen nicht behebbarer Fehler für den jeweiligen Lauf des Jobs. Wenn das Problem über mehrere Durchläufe hinweg besteht, finden Sie unter Google dataflow, DATA_LOSS Exception mögliche Threading-Probleme.

Verwandte Themen