2016-11-04 3 views
0

Ich habe Cluster von VMs über Ambari konfiguriert. Jetzt versuchen, Spark zu installieren.Spark durch Ambari installieren

In allen Tutorials (d. H. here) ist es ziemlich einfach; Spark-Installation ist ähnlich wie bei anderen Dienstleistungen:

https://docs.hortonworks.com/HDPDocuments/HDP2/HDP-2.3.4/bk_spark-guide/content/install-spark-over-ambari.html

Aber es scheint, dass in meinem Ambari Beispiel gibt es einfach keinen solchen Eintrag.

Wie kann ich den Ambari-Diensten einen Spark-Eintrag hinzufügen?

+0

Welche Version von HDP verwenden Sie? – cjackson

+0

@cjackson Version ist 2.2 – Aliaxander

+0

Spark 1.2.1 sollte mit HDP2.2 verfügbar sein. Ist der folgende Ordner auf dem Knoten vorhanden, auf dem der ambari-Server '/ var/lib/ambari-server/resources/stacks/HDP/2.2/services/SPARK' ausgeführt wird? – cjackson

Antwort

0

Es sollte einen SPARK-Ordner unter dem Verzeichnis /var/lib/ambari-server/resources/stacks/HDP/2.2/services geben. Zusätzlich sollte es Funke-Ordner geben, die durch ihre Versionsnummer unter /var/lib/ambari-server/resources/common-services/SPARK identifiziert werden. Entweder hat jemand Ihre Umgebung geändert oder es ist eine schlechte und/oder nicht standardmäßige Installation von Ambari.

Ich würde vorschlagen, neu zu installieren, da es schwer ist, genau zu sagen, was Sie hinzufügen müssen, da es unklar ist, was andere Dinge in der Umgebung möglicherweise fehlen.

Verwandte Themen