Ich stehe mit meinem Cluster vor einem wirklich seltsamen Problem.Dateien, die größer als 100 MB sind, können nicht in HDFS geladen werden
Jedes Mal, wenn ich versuche, jede Datei in HDFS zu laden, die größer als 100 MB (104.857.600 Bytes) es mit dem folgenden Fehler fehlschlägt ist:
All datanodes are bad... Aborting.
Das ist wirklich seltsam, wie 100 MB die Schwelle geworden ist für Dateigröße.
Auch wenn ich versuche, die Dateigröße um 1 einzelnes Byte (104857601 Bytes) zu erhöhen und versuchen, es in HDFS zu laden, schlägt es mit einem langen Stacktrace fehl. Grundsätzlich sagen "Alle Daten sind schlecht ... Abbrechen"
Hat jemand ähnliche Situation früher konfrontiert?
Ist es möglich, dass einige Konfigurationsänderungen versehentlich zu diesem Verhalten geführt haben? Wenn ja, irgendeine Konfiguration, die die Größe der Daten begrenzt, die aufgenommen werden können, die ich ändern kann?
Dank
Nur um zu verdeutlichen: Können Sie mehrere Dateien von 51 mb laden? Wie lädst du es ein und scheitert es sofort oder gegen Ende? Gibt es eine Chance, dass Sie ein sehr niedriges Speicherlimit für Mapper festlegen? –
Haben Sie Ihre Grenze für die Anzahl der geteilten Dateien und die maximale Anzahl geöffneter Dateien überprüft? – mbaxi
@Dennis - Ich kann alles unter 100 MB laden. Laden mit Hadoop fs -put. Es schlägt sofort fehl. Ich bin mir nicht sicher, wie ich nach dem Speicherlimit suchen soll. Bitte klären Sie das Gleiche. –