2016-06-30 3 views
0

Ich benutze spark-sql, um den Job auszuführen und was sollte der Produktionsbefehl sein? Kann ich den Befehl spark-sql als Produktionsauftrag verwenden?Spark: Wie erstelle ich einen Job für die Funkeverarbeitung

Danke, Virendra

+0

Haben Sie einen Produktionscluster? Oder wollen Sie nur Daten aus Datenbanken in "Produktionssystemen" verwenden? –

+0

ja ich habe Produktionscluster. Um die Leistung der Abfrage mit mehreren Joins abzufragen und zu sehen, verwende ich SPARK-SQL. also kann SPARK-SQl in der Produktion auch für tägliche bsais laufen? oder sollte ich SPAR-SUBMIT verwenden? Das Problem ist, SPARK-SUBMIT zu verwenden, ich muss Scala- oder Java-Code schreiben und JAR erstellen, das in SPARK-SUBMIT verwendet werden kann. –

Antwort

0

Nicht ganz sicher, was Ihre Bedeutung der Produktion ist. Könnten Sie es ein bisschen mehr ausarbeiten?

spark-sql ist für die interaktive Erforschung der Daten entwickelt. Es startet einen Java-Prozess als REPL.

Vielleicht setzen Sie den Code in einem Maven-Projekt ist mehr geradlinig. Wie this

+0

Danke! Ich bin nicht Programmierung Kerl wollte so mehr mit SQL-Typ-Funktion, die SPARK-SQL zu tun hat aber regelmäßige Basis Job in der Produktion Cluster muss ich JAR (scala/java Code-Basis) oder mit nur SPARK-SQL kann ich meine laufen lassen Arbeitsplätze. –

0

Sie sollten SPARK_HOME/bin/spark-submit, um Sie Code auf Cluster ausführen. Weitere Informationen finden Sie hier: http://spark.apache.org/docs/latest/submitting-applications.html

+0

Danke! es bedeutet, dass ich Code in Scala oder Java schreiben und sqlContext aufrufen muss. Dann erstelle ein Glas und benutze SPARK-SUBMIT. Aber gibt es trotzdem, dass ich mit Only SPARK-SQL Job erstellen und mein Skript (sql) als Parameter aufrufen kann. –

+0

Ich glaube nicht. Sie sollten Uber-JAR erstellen und zu Cluster bereitstellen. – Przemek

Verwandte Themen