I haben einen Funken laden Cluster auf Amazon EC2, die 1 und 2 Master-Knoten untergeordneten Knoten angefeuert, die jedekann nicht große Datei auf HDFS Funken Cluster-Master-Knoten
jedoch 2,7 GB Speicher haben, wenn ich zu setzen versucht eine Datei von 3 GB auf den HDFS durch den Code unten
/root/ephemeral-hdfs/bin/hadoop fs -put /root/spark/2GB.bin 2GB.bin
den Fehler zurückgibt „/user/root/2GB.bin konnte nur auf 0 Knoten, anstelle von 1 repliziert werden“. fyi, ich kann Dateien kleinerer Größe hochladen, aber nicht, wenn sie eine bestimmte Größe überschreiten (ca. 2,2 GB).
Wenn die Datei die Speichergröße eines Knotens überschreitet, wird sie nicht von Hadoop auf den anderen Knoten aufgeteilt?
was meinst du mit "2.7GB Speicher haben jeweils"? Beziehen Sie sich auf RAM oder Festplatte? – Yaron