Ich habe versucht, die allgemeinen Funktionen und die Vereinfachung, die Spring Cloud Datenfluss (SCDF) in diesem SO thread bietet - vielleicht könnte dies nützlich sein.
In Ihrem Fall
Die Anwendung selbst in einer einzigen VM laufen würde. Es wird nie in mehr als einer VM jederzeit bereitgestellt.
Nicht sicher, ob dies eine Frage oder eine Anforderung ist. Ich gehe davon aus, dass Sie sich fragen, wie Sie Ihren Batch-Job-Betrieb skalieren können.
Wenn Sie einen remote partitioned Batch-Job, abhängig von der Anzahl der workers
, die Sie konfigurieren haben, jeder von ihnen in einem separaten Prozess/Behälter ausgeführt wird und der master
Schritt definiert in Batch-Job koordiniert die Arbeiter und die Datenpartitionen. Dies wäre ein Beispiel für einen parallelisierten Betrieb - hier ist ein sample.
Und wir könnten auch andere Dateien in Zukunft müssen das gleiche Muster
Großen folgen. Sobald Sie Ihren Batch-Job in SCDF definiert und registriert haben, können Sie ihn jederzeit starten/erneut starten. Sie würden dazu die REST-APIs, Shell oder das Dashboard von SCDF verwenden.
Abhängig von der Laufzeitplattform, auf der Sie SCDF + Batch-Job ausführen, können Sie den plattformspezifischen Scheduler nutzen, um den Batch-Job über die in SCDF bereitgestellten REST-APIs zu planen.
Ich sehe auch Batch und jetzt SCDF in Betracht ziehen ... Was hast du am Ende? Irgendeine Anregung? – Adriaan