cifar10_multi_gpu_train.py
An diesen line wird[Tensorflow]: cifar10_multi_gpu_train.py - unbeabsichtigter Verlust Berichterstattung
jeder Verlust für jeden Turm in dem Multi-GPU berechnetAllerdings sind diese Verluste nicht gemittelt, und es scheint, als ob der Verlust von der letzten GPU loss zurückgegeben wird.
Ist dies absichtlich (wenn ja, warum?) Oder ist es ein Fehler im Code?
Aber 'loss' ist ein Python-Variable, einen Verlust von einem bestimmten Namespace zeigt (nämlich die i-te GPU)? –
Laut dem Code ist Verlust keine Python-Variable, sondern ein Tensor, der von tower_loss (scope) zurückgegeben wird. –
Aber entspricht das nicht nur einem Turm - und nicht dem durchschnittlichen Verlust, der über alle Türme berechnet wird? –