2016-04-03 8 views
0

I haben einen Funken laden Cluster auf Amazon EC2, die 1 und 2 Master-Knoten untergeordneten Knoten angefeuert, die jedekann nicht große Datei auf HDFS Funken Cluster-Master-Knoten

jedoch 2,7 GB Speicher haben, wenn ich zu setzen versucht eine Datei von 3 GB auf den HDFS durch den Code unten

/root/ephemeral-hdfs/bin/hadoop fs -put /root/spark/2GB.bin 2GB.bin 

den Fehler zurückgibt „/user/root/2GB.bin konnte nur auf 0 Knoten, anstelle von 1 repliziert werden“. fyi, ich kann Dateien kleinerer Größe hochladen, aber nicht, wenn sie eine bestimmte Größe überschreiten (ca. 2,2 GB).

Wenn die Datei die Speichergröße eines Knotens überschreitet, wird sie nicht von Hadoop auf den anderen Knoten aufgeteilt?

+0

was meinst du mit "2.7GB Speicher haben jeweils"? Beziehen Sie sich auf RAM oder Festplatte? – Yaron

Antwort

0

Edit: Zusammenfassung meines Verständnisses des Problems Sie konfrontiert sind:

1) Gesamt HDFS freie Größe ist 5,32 GB

2) HDFS freie Größe auf jedem Knoten 2.6GB

ist

Hinweis : Sie haben schlechte Blöcke (4 Blöcke mit korrupten Repliken)

Die folgende Q & A erwähnt ähnliche Probleme: Hadoop put command throws - could only be replicated to 0 nodes, instead of 1

In diesem Fall zeigte die Ausführung von JPS, dass der Datenknoten ausgefallen ist.

Diejenigen Q & A deuten auf eine Art und Weise die Daten-Knoten neu zu starten:

What is best way to start and stop hadoop ecosystem, with command line? Hadoop - Restart datanode and tasktracker

Bitte versuchen Sie Ihre Daten-Knoten neu zu starten, und lassen Sie uns wissen, ob es das Problem gelöst.


Wenn HDFS mit - Sie haben ein gemeinsam genutztes Dateisystem

dh alle Knoten das gleiche Dateisystem

Aus Ihrer Beschreibung teilen - die aktuelle freien Speicherplatz auf dem HDFS etwa 2,2 GB ist, während Du versuchst dort 3GB einzustellen.

Führen Sie den folgenden Befehl, um die HDFS freie Größe zu erhalten:

hdfs dfs -df -h 

hdfs dfsadmin -report 

oder (für ältere Versionen von HDFS)

hadoop fs -df -h 

hadoop dfsadmin -report 
+0

Wenn auf dem Masterknoten "DFS Remaining: 5713575936 (5,32 GB)" und auf den 2 Datenknoten "DFS Remaining: 2856787968 (2,66 GB)" steht, beziehen sie sich auf Festplattenspeicher oder RAM? – Stanley

+0

Können Sie bitte den von Ihnen ausgeführten Befehl und seine Ausgabe angeben? – Yaron

+0

Befehl ausführen: ./hadoop dfsadmin -report, Ausgang: Konfiguriert Kapazität: 8443527168 (7,86 GB) derzeitige Kapazität: 5713715200 (5,32 GB) DFS Rest: 5713575936 (5.32 GB) DFS verwendet: 139264 (136 KB) DFS Verwendet%: 0% Unter replizierten Blöcke: 4 Blöcke mit korrupten Repliken: 0 fehlenden Blöcke: 0 ------------ ------------------------------------- Verfügbare Daten: 2 (2 gesamt, 0 tot) Decommission Status: Normale projektierte Kapazität: 4221763584 (3,93 GB) DFS Gebraucht: 69.632 (68 KB) Nicht DFS Gebraucht: 1364905984 (1,27 GB) DFS Rest: 2856787968 (2,66 GB) DFS Gebraucht%: 0% DFS verbleibend%: 67.67% – Stanley

Verwandte Themen