Ich habe eine Scala-Anwendung, die Spark 2.1 im Standalone-Modus verwendet. Die Anwendung wird für 2 Stunden ausgeführt und beendet. Es sollte einmal im Monat laufen.Wie wird Spark eigenständig auf Kubernetes ausgeführt?
fand ich mehrere Ansätze Funken- und Kubernetes zu kombinieren:
- Verwendung Apache Spark-Helm-Diagramm: https://github.com/kubernetes/charts/tree/master/stable/spark
- Es gibt einen speziellen Zweig der Funke für Kubernetes: https://github.com/apache-spark-on-k8s/spark
- mein eigenes Docker bauen Bild Meine Anwendung einschließlich der Spark-Binär: http://blog.madhukaraphatak.com/scaling-spark-with-kubernetes-part-5/ Codebeispiel: https://github.com/phatak-dev/kubernetes-spark
Die meisten In der Dokumentation wird beschrieben, wie ein Spark-Cluster auf Kubernetes ausgeführt wird. Was ist der Ansatz, um Spark eigenständig auf Kubernetes auszuführen?
"Was ist der beste Ansatz" - es ist primär auf der Meinung basiert. Allerdings hat die zweite Option offizielle Ticket in Spark Jira und kann in Spark –
Dank integriert werden. Ich hatte den Eindruck, dass der Zweck des speziellen Zweiges von Spark für Kubernetes darin besteht, einen Spark-Cluster ohne Mesos laufen zu lassen. –
Ich denke du meinst - "ohne allein zu laufen". Das ist richtig. Der spezielle Zweig dient dazu, Spark direkt auf Kubernetes auszuführen. Details sind in der JIRA und https://github.com/kubernetes/kubernetes/issues/34377 –