2016-09-26 9 views
-1

Ich verwendete h2o-Bibliothek für die Klassifizierung. Ich möchte das Detail des Gewichts von jedem Knoten wissen, den es gemacht hat. Angenommen, ich benannte das Modell mit model, wenn ich summary(model) verwende, wird es nur das durchschnittliche Gewicht und die durchschnittliche Neigung jeder Schicht zeigen, und ich muss das Detail jedes Gewichts wissen. Ist es möglich, jedes Detailgewicht zu drucken? Irgendwelche Vorschläge würden geschätzt. Sorry für das schreckliche EnglischR H2O - detaillierte Zusammenfassung

train[1,] 
0, 0, 0, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 0, 0, 0, 0, 0, 0, 1, 0, 0, 0, 1, 0, 0, 0, 0, 0, 1, 0, 0, 0, 1, 0, 0, 0, 0, 0, 1, 0, 0, 0, 1, 0, 0, 0, 0, 0, 1, 0, 0, 0, 1, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 1, 0, 0, 0, 0, 0, 1, 0, 0, 1, 1, 0, 0, 0, 0, 0, 1, 1, 0, 1, 0, 0, 0, 0, 0, 0, 0, 1, 0, 1 

train[2,] 
1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 0, 1, 1, 0, 0, 0, 0, 0, 1, 0, 0, 0, 0, 0, 1, 1, 0, 0, 1, 0, 0, 0, 0, 0, 0, 0, 1, 0, 1, 0, 0, 0, 0, 0, 0, 0, 1, 0, 1, 0, 0, 0, 0, 0, 0, 0, 1, 0, 1, 0, 0, 0, 0, 0, 0, 0, 1, 0, 1, 0, 0, 0, 0, 0, 0, 0, 1, 0, 1, 1, 1, 1, 1, 1, 1, 1, 0, 0, 2 

model = h2o.deeplearning(x = 1:100,y = 101 
         training_frame = train, 
         activation = "Tanh", 
         balance_classes = TRUE, 
         hidden = c(15,15), 
         momentum_stable = 0.99, 
         epochs = 50) 

Scoring History: 
      timestamp duration training_speed epochs iterations  samples training_rmse training_logloss 
1 2016-09-26 23:50:53 0.000 sec     0.00000   0 0.000000        
2 2016-09-26 23:50:53 0.494 sec 8783 rows/sec 5.00000   1 650.000000  0.81033   2.04045 
3 2016-09-26 23:50:53 1.053 sec 10586 rows/sec 50.00000   10 6500.000000  0.23170   0.22766 
    training_classification_error 
1        
2      0.63077 
3      0.00000 

hier ist ein Teil der Zusammenfassung meines Modells

layer units type dropout  l1  l2 mean_rate rate_rms momentum mean_weight weight_rms mean_bias bias_rms 
1  1 100 Input 0.00 %                       
2  2 15 Tanh 0.00 % 0.000000 0.000000 0.005683 0.001610 0.000000 0.004570 0.148204 -0.019728 0.061853 
3  3 15 Tanh 0.00 % 0.000000 0.000000 0.003509 0.000724 0.000000 0.003555 0.343449 0.007262 0.110244 
4  4 26 Softmax   0.000000 0.000000 0.010830 0.006383 0.000000 0.005078 0.907516 -0.186089 0.166363 
+1

Können Sie ein reproduzierbares Beispiel für Ihren Code erstellen? Etwas wie http://stackoverflow.com/questions/39597281/r-h2o-glm-issue-with-max-active-predictors hat drin? Wir sind alle auf der gleichen Seite. – Spacedman

+0

Sind die "downvotes" und "close votes" von "unklar, was du fragst", weil die Leute nicht wissen, was H2O ist ?! Dies ist eine gute, klare Frage mit einer spezifischen Antwort. (um es zu beantworten ...) –

Antwort

2

Wenn Sie Ihr Modell bauen, die Flags gesetzt Gewichte und Vorurteile zu exportieren. Sobald das Modell gebaut ist, können Sie h2o.weights() und h2o.biases() verwenden.

model = h2o.deeplearning(x = 1:100,y = 101 
        training_frame = train, 
        activation = "Tanh", 
        balance_classes = TRUE, 
        hidden = c(15,15), 
        momentum_stable = 0.99, 
        epochs = 50, 
        export_weights_and_biases = TRUE # <--- add this 
        ) 
firstLayerWeights = h2o.weights(model, 1) 
secondLayerWeights = h2o.weights(model, 2) 
+0

Danke! Es funktionierte. Ich habe "export_weights_and_biases" in der Dokumentation vergessen. – user6883698