Ich bin nicht in der Lage, Fehlerprotokolle oder Nachrichten von println
Anrufe in Scala beim Ausführen von Jobs auf Spark
in EMR
zu finden.Wo meldet sich der Spark bei EMR an?
Wo kann ich auf diese zugreifen?
ich Absenden der Spark job
, geschrieben in Scala
zu EMR
mit script-runner.jar
mit Argumenten --deploy-mode
auf cluster
und --master
Satz zu yarn
. Es macht den Job gut.
aber ich sehe meine nicht println
Aussagen in der Amazon EMR UI
wo es listet „stderr, stdout etc. Furthermore if my job errors I don't see why it had an error. All I see is this in the
stderr`:
15/05/27 20:24:44 INFO yarn.Client: Application report from ResourceManager:
application identifier: application_1432754139536_0002
appId: 2
clientToAMToken: null
appDiagnostics:
appMasterHost: ip-10-185-87-217.ec2.internal
appQueue: default
appMasterRpcPort: 0
appStartTime: 1432758272973
yarnAppState: FINISHED
distributedFinalState: FAILED
appTrackingUrl: http://10.150.67.62:9046/proxy/application_1432754139536_0002/A
appUser: hadoop
`
Ja, das ist richtig. Vielen Dank. Für andere Benutzer Wissen, können Sie diese "Log URI" in der Amazon EMR Web-UI für Ihre Cluster-Informationen/Details zu sehen. –