Ich bin ein Google Cloud ML Job läuft "scaleTier": "BASIC_GPU"
verwenden und die folgende Tabelle umreißt Details über die Verwendung:65% CPU & 15% Speicher mit Tensorflow auf Google Cloud ML
Ich bin Ausführen eines Experiments unter Verwendung von learn_runner.run(...)
in einem benutzerdefinierten Schätzer und Feed der Eingabe mithilfe eines Pipeline-basierten Ansatzes mithilfe der Dateinamen-Warteschlange zum Lesen von Daten.
Ist der pipeline-basierte Ansatz der Hauptgrund für die geringe Speicherauslastung und sollte ich die Trainingsauslastung optimieren?