Ich benutze die neue TensorFlow profiler, um die Speicherauslastung in meinem neuronalen Netz zu profilieren, das ich auf einer Titan X GPU mit 12GB RAM betreibe. Hier ist ein Beispiel einer Ausgabe, wenn ich meine Haupttrainingsschleife Profil:Wie erhält man detaillierte Speicherzusammenbrüche im TensorFlow Profiler?
==================Model Analysis Report======================
node name | requested bytes | ...
Conv2DBackpropInput 10227.69MB (100.00%, 35.34%), ...
Conv2D 9679.95MB (64.66%, 33.45%), ...
Conv2DBackpropFilter 8073.89MB (31.21%, 27.90%), ...
Offensichtlich ist dies summiert sich auf mehr als 12 GB, so dass einige dieser Matrizen im Hauptspeicher sein müssen, während andere auf der GPU sind. Ich würde gerne eine detaillierte Aufschlüsselung der Variablen in einem bestimmten Schritt sehen. Ist es möglich, detaillierte Informationen darüber zu erhalten, wo verschiedene Parameter gespeichert sind (Haupt- oder GPU-Speicher), entweder mit dem Profiler oder anders?