Verwenden Sie die neueste Version von Apache Luftstrom. Begann mit LocalExecutor, in diesem Modus funktionierte alles gut, außer einigen Interaktionen der Web-UI-Status, dass der SelleryExecutor benötigt wurde, um sie zu verwenden. Installiert und konfiguriert den Sellery-Executor mit Redis, konfiguriert Redis als Broker-URL und das Ergebnis-Backend.Apache Airflow Sellerie Redis DecodeError
Es scheint zunächst zu arbeiten, bis eine Aufgabe, an welcher Stelle geplant ist, werden folgenden Fehler gibt:
File "/bin/airflow", line 28, in <module>
args.func(args)
File "/usr/lib/python2.7/site-packages/airflow/bin/cli.py", line 882, in scheduler
job.run()
File "/usr/lib/python2.7/site-packages/airflow/jobs.py", line 201, in run
self._execute()
File "/usr/lib/python2.7/site-packages/airflow/jobs.py", line 1311, in _execute
self._execute_helper(processor_manager)
File "/usr/lib/python2.7/site-packages/airflow/jobs.py", line 1444, in _execute_helper
self.executor.heartbeat()
File "/usr/lib/python2.7/site-packages/airflow/executors/base_executor.py", line 132, in heartbeat
self.sync()
File "/usr/lib/python2.7/site-packages/airflow/executors/celery_executor.py", line 91, in sync
state = async.state
File "/usr/lib/python2.7/site-packages/celery/result.py", line 436, in state
return self._get_task_meta()['status']
File "/usr/lib/python2.7/site-packages/celery/result.py", line 375, in _get_task_meta
return self._maybe_set_cache(self.backend.get_task_meta(self.id))
File "/usr/lib/python2.7/site-packages/celery/backends/base.py", line 352, in get_task_meta
meta = self._get_task_meta_for(task_id)
File "/usr/lib/python2.7/site-packages/celery/backends/base.py", line 668, in _get_task_meta_for
return self.decode_result(meta)
File "/usr/lib/python2.7/site-packages/celery/backends/base.py", line 271, in decode_result
return self.meta_from_decoded(self.decode(payload))
File "/usr/lib/python2.7/site-packages/celery/backends/base.py", line 278, in decode
accept=self.accept)
File "/usr/lib/python2.7/site-packages/kombu/serialization.py", line 263, in loads
return decode(data)
File "/usr/lib64/python2.7/contextlib.py", line 35, in __exit__
self.gen.throw(type, value, traceback)
File "/usr/lib/python2.7/site-packages/kombu/serialization.py", line 54, in _reraise_errors
reraise(wrapper, wrapper(exc), sys.exc_info()[2])
File "/usr/lib/python2.7/site-packages/kombu/serialization.py", line 50, in _reraise_errors
yield
File "/usr/lib/python2.7/site-packages/kombu/serialization.py", line 263, in loads
return decode(data)
File "/usr/lib/python2.7/site-packages/kombu/serialization.py", line 59, in pickle_loads
return load(BytesIO(s))
kombu.exceptions.DecodeError: invalid load key, '{'.
Scheint eine Gurke Serialisierung Fehler zu sein, aber ich bin nicht sicher, wie das verfolgen Ursache. Irgendwelche Vorschläge?
Dieses Problem betrifft konsistent einen Workflow, bei dem ich die Subdag-Funktion verwende, möglicherweise hängt das Problem damit zusammen.
HINWEIS: Ich habe auch getestet mit RabbitMQ, hatte ein anderes Problem dort; Client zeigt "Verbindung zurückgesetzt durch Peer" und stürzt ab. Das RabbitMQ-Protokoll zeigt "Client unerwartet geschlossene TCP-Verbindung".