In einem eigenständigen Spark-Cluster: Was genau ist die Rolle des Masters (ein Knoten, der mit dem Skript start_master.sh gestartet wurde)?Rolle des Masters im Spark-Standalone-Cluster
Ich verstehe, dass der Knoten, der die Aufträge aus dem Skript submit-job.sh empfängt, aber was ist seine Rolle bei der Verarbeitung eines Auftrags?
Ich sehe in der Web-Benutzeroberfläche, die immer den Job an einen Slave (ein Knoten mit start_slave.sh) liefert und nicht von der Verarbeitung beteiligt ist, habe ich Recht? Sollte ich in diesem Fall auch das Skript start_slave.sh auf dem gleichen Rechner wie der Master ausführen, um seine Ressourcen (CPU und Speicher) zu nutzen?
Vielen Dank im Voraus.
Ich habe es in einem echten Cluster getestet. Ja, es ist notwendig, ein Slave- oder Worker-Skript in dem Knoten auszuführen, der den Master hostet, wenn wir die CPU und den Speicher des Knotens verwenden wollen, auf irgendeine andere Weise werden sie verschwendet, da der Master nur einige wenige dieser Ressourcen verwendet. – italktothewind