Ich möchte, dass mein Modell auf mehreren GPUs ausgeführt wird, die Parameter teilen, aber unterschiedliche Datenmengen haben.Wie macht man Multi-GPU-Training mit Keras?
Kann ich so etwas mit model.fit()
machen? Gibt es noch eine Alternative?
Ich möchte, dass mein Modell auf mehreren GPUs ausgeführt wird, die Parameter teilen, aber unterschiedliche Datenmengen haben.Wie macht man Multi-GPU-Training mit Keras?
Kann ich so etwas mit model.fit()
machen? Gibt es noch eine Alternative?
versuchen Sie, make_parallel Funktion in: https://github.com/kuza55/keras-extras/blob/master/utils/multi_gpu.py (es funktioniert nur mit dem Tensorflow-Backend).
Keras hat jetzt (ab v2.0.9) integrierte Unterstützung für Geräteparallelität über mehrere GPUs hinweg unter Verwendung von keras.utils.multi_gpu_model
.
Derzeit wird nur das Tensorflow-Back-End unterstützt.
Gutes Beispiel hier (docs): https://keras.io/getting-started/faq/#how-can-i-run-a-keras-model-on-multiple-gpus Auch hier abgedeckt: https://datascience.stackexchange.com/a/25737