2017-10-21 3 views
2

Wie Sie Keras oder Tensorflow programmieren können, um Training auf mehreren GPU zu partitionieren, nehmen wir an, Sie sind in einer amaozn ec2-Instanz, die 8 GPUs hat und Sie alle verwenden möchten, um schneller zu trainieren Code ist nur für eine einzelne CPU oder GPU?Training eines Modells mit mehreren GPUs

+0

Das ist ein bisschen breit für diese Seite. Sie fordern uns auf, Ihre Lösung für Sie zu entwerfen. https://stackoverflow.com/help/how-to-ask – jdv

Antwort

2

Ja, kann Keras Modelle auf mehreren GPUs laufen. Dies ist vorerst nur mit dem TensorFlow-Backend möglich, da das Theano-Feature noch recht neu ist. Wir suchen in naher Zukunft Unterstützung für Multi-GPU in Theano (es sollte ziemlich einfach sein).

Mit dem TensorFlow-Backend können Sie dies auf die gleiche Weise wie beim reinen TensorFlow erreichen: indem Sie beim Definieren von Keras-Layern den Bereich mit tf.device (d) verwenden. Ursprünglich

von here

+1

Als Ergänzung zu dieser Antwort können Sie die Antworten in den folgenden Link folgen. Die Idee ist, 'tf.device ('/ gpu: 0'):' oder 'mit tf.device ('/ gpu: 1')' usw. für jede Gruppe von Layern zu setzen. https://stackoverflow.com/questions/46366216/tensorflow-is-it-possible-to-manual-decide-which-tens-in-a-graph-go-to-th –

+0

@ DanielMöller: Danke! –

Verwandte Themen