Kann TensorFlow Berechnungen automatisch cachen, wenn sie mehrere Aufrufe desselben Berechnungs- (Teil-) Graphen beinhalten?Kann TensorFlow Cache (Sub-) Graph Berechnungen?
Zum Beispiel habe ich eine Matrix F
in der jeder Eintrag eine Berechnung basierend auf trainierbaren Variablen W
darstellt. Meine Zielfunktion multipliziert diese Matrix mehrfach mit verschiedenen Vektoren (jeweils mal mit unverändertem W).
Will TensorFlow z. B. F[1,2]
neu berechnen, wenn ich auf es zugreifen, oder wird es diesen Wert zwischenspeichern?
Theoretisch könnte man die Matrix F
gegeben precompute eine festes W
, derart, dass jeder Eintrag in F
a tf.constant
ist. Aber das würde die korrekte Berechnung der Gradienten von W
verhindern.
Diese Frage scheint verwandt zu sein: http://stackoverflow.com/questions/34536340/how-to-use-tensorflow-optimizer-without-recomputing-activations-in-verstärkung –