Werden gemeinsam genutzte Layer effizient in CNTK behandelt? (Das heißt, die Aktivierung Berechnung wird nicht dupliziert)Werden gemeinsam genutzte Layer effizient gehandhabt?
Fro Beispiel nehme ich den folgenden Ausdruck:
def create_func(shared_layers, out1_layers, out2_layers):
# ... there would be a with block specifying activations...omitted for brevity
shared_hl_func = For(shared_layers, lambda n: Dense(n), name="Shared Hidden Layers")
out1_hl_func = For(out1_layers, lambda n: Dense(n), name="Out1 Only Hidden Layers")
out2_hl_func = For(out2_layers, lambda n: Dense(n), name="Sigma Only Hidden Layers")
output1_func = Sequential([shared_hl_func, out1_hl_func,
Dense(1, activation=None, init=init, name="Out1_Regression_Layer")], name="Out1")
output2_func = Sequential([shared_hl_func, out2_hl_func,
Dense(1, activation=None, init=init, name="Out2_Regression_Layer")], name="Out2")
return output1_func, output2_func
output1, output2 = create_func([50,25], [25, 10], [25, 10])
my_input = cntk.input_variable((70,))
dual_model = cntk.combine(output1(my_input), output2(my_input))
Wenn dual_model
Auswertung wird die Berechnung effizient durchgeführt werden? (Werden die ersten beiden weiteren dichten Schichten nur einmal berechnet und dann geteilt? Wenn dies nicht der Fall ist, wird sie dann durch explizite Funktionskompositionshilfe mit Effizienz erstellt?
Danke, ich vermutete das, weil mein Comp Die Verwendungsdauer nahm während des Rückschlusses nicht ab, obwohl ich mehr Schichten teilte. Ich habe GraphViz nicht auf meinem System verfügbar. Ist die von einem TensorBoardProgressWriter erstellte Visualisierung auch genau für diesen Zweck? – tarlinian
Ja, Sie können das Modell auch im Tensor-Board visualisieren. – KeD