2017-06-05 3 views
0

Ich versuche, einen Oozie-Job unter Verwendung von XML auszuführen. Doch die Aktion mit dem Fehler fehlschlägt:Das Ausführen von Oozie im lokalen Modus gibt den Fehler

Main class [org.apache.oozie.action.hadoop.SparkMain], exit code [101]

auf der Analyse von Protokollen beobachtete ich, dass Fehler war wegen java.lang.ClassNotFoundException: Mainclass. Jedoch existiert die Hauptklasse in jar im hdfs-Verzeichnis. Das Glas wird angegeben in in xml below.Here ist mein Code:

<action name="action1" cred="hive_credentials"> 
       <spark xmlns="uri:oozie:spark-action:0.2"> 
         <job-tracker>${jobTracker}</job-tracker> 
         <name-node>${nameNode}</name-node> 
         <master>local[*]</master> 
         <name>name</name> 
         <class>Mainclass</class> 
         <jar>${jar1}</jar> 
         <spark-opts> 
           --files hive-site.xml --conf spark.yarn.security.tokens.hive.enabled=false 
         </spark-opts> 
         <arg>arg1</arg> 
         <file>${nameNode}/test/${wf:user()}/hive-site.xml</file> 
       </spark> 
       <ok to="end" /> 
       <error to="kill_job" /> 
     </action> 

Was das Problem sein könnte?

Antwort

0

ich das Problem behoben,

1) xml

zu

2) Kopieren Mainclass jar lib Ordner Workflow ein "lib" Ordner direkt neben Erstellen

3) in Tag nur jar Namen angeben und nicht vollständig qualifizierte hdfs Pfad

Verwandte Themen