2017-05-24 7 views
4

Ich erhalte diesen Fehler, ich habe versucht, den Speicher auf Cluster-Instanzen und in den Executor- und Treiberparametern ohne Erfolg zu erhöhen.EMR Spark - TransportClient: Fehler beim Senden von RPC

17/05/07 23:17:07 ERROR TransportClient: Failed to send RPC 6465703946954088562 to ip-172-30-12-164.eu-central-1.compute.internal/172.30.12.164:34706: java.nio.channels.ClosedChannelException 

Hat jemand irgendeinen Anhaltspunkt, um diesen Fehler zu beheben?

BTW Ich verwende GARN als Cluster-Manager

Vielen Dank im Voraus

Antwort

3

Schließlich entschloss ich mich, das Problem. Dies war auf unzureichenden Speicherplatz zurückzuführen. Eine Spalte von Hadoop-Logs zeigte:

Hadoop YARN: 1/1 local-dirs sind schlecht:/var/lib/hadoop-Garn/Cache/Garn/nm-local-dir; 1/1 Log-dirs sind schlecht:/var/log/Hadoop-Garn/Container

googeln es ich http://gethue.com/hadoop-yarn-11-local-dirs-are-bad-varlibhadoop-yarncacheyarnnm-local-dir-11-log-dirs-are-bad-varloghadoop-yarncontainers/ gefunden

"Wenn Sie diese Fehlermeldung erhalten, einigen Speicherplatz machen!"

Um diesen Fehler zu sehen, muss ich die Garnprotokolle in EMR aktivieren. Siehe

http://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-web-interfaces.html

Um Zugriff auf die Protokolle Port in den Cluster-EC2-Instanzen habe ich zu roger fragte zum Ändern von Sicherheitsgruppen für sie

dh:

Master-Instanz hörte hier zu: 172.30.12.84:8088 Und Kern Instanz hier: 172.30.12.21:8042

Schließlich fixierte ich das Problem in etl.py mit größeren Festplatten, die Art von Instanzen durch andere, die zu ändern:

Master: m3.2xlarge
Kern: c3.4xlarge