Ich verwende Dropout wie folgt in einem drei versteckten Layer-Feed-Forward-Netzwerk mithilfe der Python-API. Meine Ergebnisse sind nicht sehr gut und ich frage mich, ob ich die Dropout-Schicht falsch anwende - ist es besser, sie auf den Eingang der dichten Schicht oder intern auf den Ausgang der ersten linearen Schicht anzuwenden?Dropout korrekt anwenden in CNTK
Antwort
Wenn 0 Dropout besser funktioniert, warum glauben Sie, dass Sie ein Dropout benötigen? Überfüllt sich Ihr Netzwerk? Hast du andere Regularisierung? Es wäre gut, mehr Details über die Netzwerkarchitektur und die Daten zu haben.
Ich bin in Ordnung mit der Möglichkeit, dass Dropout möglicherweise keine bessere Leistung bringt - ich möchte nur überprüfen, ob ich es richtig in dem von mir bereitgestellten Code-Snippet anwende. Das Netzwerk ist sehr einfach: O (1M) pre-featurized Eingänge, drei versteckte Schichten, jede durch das Code-Snippet definiert, und ein Zwei-Knoten-Ausgang. –
Es wird normalerweise nach der Nichtlinearität angewendet, aber es sollte hier keinen Unterschied machen. –
- 1. Benutzerdefinierte Dropout in Tensorflow
- 2. Implementieren von Dropout in Theano
- 3. ReLu und Dropout in CNN
- 4. dropout und data.split in model.fit
- 5. Fehler mit Dropout in tensorflow
- 6. Tensorflow Dropout: Was passiert, wenn ich zwei Dropout-Layer anlege?
- 7. Keras: der Unterschied zwischen LSTM Dropout und LSTM rezidivierender Dropout
- 8. CNTK Convolution1d
- 9. Neuronales Netzwerk mit Dropout
- 10. Suche über MinibatchSource in CNTK
- 11. Benutzerdefinierte Layer in CNTK python
- 12. cntk lineare Aktivierungsfunktion in Schichten?
- 13. Wie formatiert Ausgabe in CNTK?
- 14. Spezifische Funktion bedingte Dropout in Google Tabellenkalkulation
- 15. Verhalten von Dropout Schichten in Test-/Trainingsphase
- 16. Wrap CNTK Anwendungen
- 17. CNTK Bildklassifizierung Ergebnisverbesserungsmethode
- 18. Unerwartete Ergebnisse von CNTK
- 19. Beispiele für CNTK Lerner
- 20. CNTK Progress Printer
- 21. Schienen Formular - Radio Button überprüft Status nicht korrekt anwenden
- 22. Aktivitäten, die Themen nicht korrekt auf Tablet anwenden
- 23. Es gibt keinen CNTK Befehl
- 24. CNTK C++ Eval für FastRCNN
- 25. kann nicht CNTK in Visual Studio 2015
- 26. CNTK: csv Spaltenformat in Beispiel 104
- 27. CNTK Python, wie mehrere Funktionen in Modell
- 28. CNTK Learner und Reißverschluss Argumente in Python
- 29. Gibt es eine kartenäquivalente Operation in CNTK?
- 30. Erstellen von benutzerdefinierter Fehlerfunktion in CNTK
Können Sie etwas mehr über Ihren Anwendungsfall und die Ergebnisse sagen, die Sie erhalten? Warum denkst du, dass der Schulabbrecher der Schuldige sein könnte? –
Ich denke, das wichtigste relevante Detail ist, dass ich einen sehr breiten, spärlichen Input-Space habe (O (1M) -Eingänge, Input-Aktivierungen sind Power-Law-verteilt). Vielleicht ist 25% Dropout zu hoch. Ich wiederhole es bei 10%. Ich weiß, Dropout ist das Problem, denn mit Null Dropout führt das Netzwerk viel besser gegen meine Validierungs-Set. –