Ich versuche, pyspark auf Garn mit oozie zu laufen, nach dem Einreichen des Arbeitsablaufs gibt es 2 Jobs in der Hadoop-Job-Warteschlange, man ist der Oozie-Job, der mit der Anwendungstyp ist " map reduce ", und ein anderer Job, ausgelöst durch den vorherigen, mit dem Anwendungstyp" Spark ", während der erste Job ausgeführt wird, bleibt der zweite Job im Status 'accepted'. Hier kommt das Problem, während der erste Job auf den zweiter Job, um den Vorgang zu beenden, der zweite wartet auf den ersten, der ausgeführt wird, ich könnte in einem toten Schloss stecken bleiben, wie kann ich diesen Ärger loswerden, gibt es sowieso den Hadoop-Job mit dem Anwendungstyp "mapreduce" parallel zu anderen Jobs unterschiedlicher Anwendungsart laufen?Hadoop Jobs in Deadlock mit pyspark und oozie
Jeder Rat wird geschätzt, danke!
danke, @YoungHobbit, es funktioniert. – Bill