2016-05-11 4 views

Antwort

6

Mappers verschüttete Dateien werden im lokalen Dateisystem des Worker-Knotens gespeichert, auf dem der Mapper ausgeführt wird. Ähnlich werden die von einem Knoten zu einem anderen Knoten gestreamten Daten im lokalen Dateisystem des Arbeiterknotens gespeichert, auf dem die Aufgabe ausgeführt wird.

Dieser lokale Dateisystempfad wird durch hadoop.tmp.dir Eigenschaft, die standardmäßig angegeben ist '/ tmp'.

Nach dem Abschluss oder dem Fehlschlagen des Jobs wird der im lokalen Dateisystem verwendete temporäre Speicherort automatisch gelöscht. Sie müssen keinen Bereinigungsprozess durchführen, da dieser automatisch vom Framework verarbeitet wird.

+0

Also in einfachen Worten, Zwischendaten werden nicht repliziert und sie werden automatisch gelöscht. ist das richtig? –

+2

alles, was in hdfs eingeht, hat den Standard-Replikationsfaktor. aber in diesem Fall sind Daten im lokalen Dateisystem vorhanden. daher wird es nicht repliziert. Ja, sie werden automatisch gelöscht –

Verwandte Themen