Ich bin noch relativ neu in Hadoop, und ich habe ein bisschen darüber gelernt, indem ich einige Beispielübungen gemacht habe, aber ich hatte eine Frage, wie es in der Praxis verwendet wird. Viele der Anwendungen scheinen auf Batch-Verarbeitung (wie Logfile-Daten) ausgerichtet zu sein, aber ich bin mir nicht sicher, wie hbase hier hineinpasst?Hadoop Hbase Workflow
Ist es üblich, die Logfile-Daten in hbase zu speichern und sie dann in ein anderes Speicherformat zu verarbeiten und auszugeben? Ist es üblich, die rohen Logfiles einfach in hadoop zu übergeben und dann die Ausgabe in hbase zu speichern? Ich denke, meine eigentliche Frage ist hier, dass hbase typischerweise als Eingabe oder Ausgabe von hadoop verwendet wird, oder beides?
das macht Sinn. Gibt es Fälle, in denen Sie die Eingabedaten in HBase speichern möchten? –
Sicher - wenn Sie zum Beispiel mehrere Maschinen schreiben, ist HBase ziemlich gut damit umzugehen. Und wenn Sie MapReduce-Jobs zum Verarbeiten Ihrer Protokolle ausführen, sind diese Jobs effizienter, wenn sie sowohl Mapper als auch Reducers (Eingabe und Ausgabe) auf den HBase-Regionsservern ausführen, da dann die Daten wahrscheinlich seltener kopiert werden müssen das Netzwerk zum Zielspeicherknoten. –
Cool, danke. Schätzen Sie die Eingabe. –