2016-04-05 7 views

Antwort

2

Ich werde versuchen, dies einfach zu erklären.

Docker können Sie Code innerhalb Containers ausführen, erstellen und testen. Das ist es. AWS hat keine spezifische Funktion, außer dass Sie Docker-Container im EC2 Container Service ausführen können.

Beachten Sie, wie ich in dieser Beschreibung nichts über Hadoop oder Big Data gesagt habe. Ihre Behälter jede verpackte Anwendung enthalten könnte sein, dass ein Web-Server, Datenbank, build-Werkzeug usw.

Nun Hadoop der Lage ist, in Behälter aufgebrochen werden, indem Hive, Hbase, Spark, die Datanodes und namenodes usw. und einfach jede Komponente in separate Behälter setzen und sie alle miteinander verbinden, um das Ökosystem zu bilden.

Anstatt also eine Gruppe von Maschinen zu haben, die miteinander vernetzt sind, haben Sie einen Cluster von Behältern, die auf jeden oder mehrere Maschinen sein können. Daher sind Container viel skalierbarer, leichter und portabler, da sie die Ressourcen der Host-Maschinen teilen, anstatt dedizierte Hardware für jeden Service zu haben.

+0

Ich habe gerade gemerkt, wie dumm die Frage war, nachdem ich eine Studie über Hadoop und Docker gemacht hatte. Danke für die Antwort sowieso. Ich werde diese Frage bald löschen, aber es hat viele Ansichten (22 am vergangenen Tag), also werde ich es hier für jetzt verlassen. – user5313842

Verwandte Themen