Während tun "hadoop namenode-Format", unten Nachricht kommt.Abfrage auf hadoop namenode -format Befehl
Re-format filesystem in Storage Directory /opt/data/temp/dfs/name ? (Y or N)
Was soll man hier geben? "Y" oder "N".
Wenn Y angegeben wird, verliert es Daten von HDFS?
Immer wieder bekomme ich das Problem "Konnte Blocklänge nicht erhalten". Es gibt eine Quelle, die Datensätze in HDFS und in Protokollen schreibt, immer wieder sehe ich das Problem "Konnte Blocklänge nicht erhalten." Auch wenn ich eine Datei von HDFS öffne, öffnet sie es nicht und wirft stattdessen diese Blockausnahme Wenn ich hdfs fsck/mache, gibt es die Ausgabe als 'HEALTHY' für /. Aber trotzdem kommt diese Blocklängenausnahme.Wenn ich Hadoop-Daemons neu starte, kann ich die Dateien öffnen, aber der hdfs-Writer von dieser Quelle wirft immernoch die block exception – earl
Wenn ich "hadoop namenode-format" gewählt und "Y" in der Eingabeaufforderung gewählt habe, starteten Datanode-Daemons in keinem der Slaves, nur der nodemanager lief dort, ich musste dann Verzeichnisse aus hadoop.tmp.dir löschen. Das Formatieren von namenode und das Neustarten von Daemonen starteten dieses Mal mit dem Starten von Daten, aber ich verlor alle meine Daten seit dem Löschen von Verzeichnissen von hadoop.tmp.dir Ich kann nicht herausfinden: - Warum diese Blocklängen-Ausnahme immer wieder kommt und was das Beste ist Reihenfolge der Schritte jnamenode zu formatieren und Daemons zu starten – earl
Was ist die Quelle? Ich vermute, dass die Quelle die Dateien nicht richtig schließt. – franklinsijo