Ich stoße auf ein Problem, bei dem mein verteilter Cluster zu "hängen" scheint - z. Aufgaben stoppen die Verarbeitung und daher baut sich ein Rückstand von nicht verarbeiteten Aufgaben auf, also suche ich nach einer Möglichkeit, um bei der Fehlersuche zu helfen.So erhalten Sie Informationen zu einer bestimmten DASC-Task
Auf der Client
gibt es die processing
Methode, die mir sagen, welche Aufgaben, die derzeit auf jeden Arbeitnehmer aber AFAICS ausführen, die nur Informationen über die Aufgaben auf dem Client
Objekt ist?
Was ich möchte, ist in der Lage, nicht nur Verarbeitungstasks, sondern alle Aufgaben einschließlich verarbeitet, Verarbeitung und Fehler und für jede Aufgabe in der Lage sein, einige Statistiken wie submitted_time
und completion_time
zu bekommen, die erlauben würde Ich möchte herausfinden, welche Aufgaben den Cluster blockieren.
zu bekommen wäre, in der Lage sein zu zu den args/kwargs
für jede Aufgabe geben ipyparallel.AsyncResult
Ein schöner Dies wäre ähnlich den erweiterten Metadaten auf den. Dies wäre besonders hilfreich beim Debuggen fehlgeschlagener Aufgaben.
Ist eine dieser Funktionen zur Zeit verfügbar oder gibt es eine Möglichkeit, die Informationen zu erhalten, nach denen ich suche?
Alle anderen Vorschläge, wie das Problem zu debuggen wäre sehr willkommen.
Sieht aus wie das sein sollte:
def f(keys, dask_scheduler): return dask_scheduler.transition_story(*keys)
–Dank @DaveHirschfeld. Fest – MRocklin