Wenn Boltzmann-Maschinen gestapelt werden, um ein tiefes neuronales Netz generativ vorzutrainieren, wie genau müssen die Rekonstruktionen sein? Wenn sie zu genau sind, kann Überanpassung ein Problem sein? Oder ist eine zu hohe Genauigkeit nur eine rote Fahne bei diskriminierender Feinabstimmung?Tiefe neuronale Netze: Wie gut müssen die Boltzmann-Maschinen sein?
Antwort
Was ist ein Problem ist es nicht in den Markov-Ketten genug zu verbrennen, um hoch energetische Bereiche im Trainingssatz zu unterdrücken, die weit von den anfänglichen Werten entfernt sind. Dies ist typisch unter Verwendung von CD (1) oder irgendeiner kontrastiven Divergenz niedriger Ordnung. Das heißt, diese Methoden initialisieren typischerweise immer Gewichte weit von lokalen Optima, in denen nicht vortrainierte Netze stecken bleiben. RBMs werden auch mit simuliertem Annealing trainiert, so dass sie eher mehr Parameterraum erkunden.
Ich empfehle Ihnen auch, das Papier zu lesen Verständnis von tiefem Lernen erfordert Umdenken Generalisierung von Zhang et al. Es zeigt im Grunde, wie diese Netzwerke die Wahrscheinlichkeitsverteilungen praktisch vollständig speichern und trotzdem verallgemeinern können.
- 1. Mehrere künstliche neuronale Netze
- 2. Neuronale Netze, die Ausgangsdaten normalisieren
- 3. Neuronale Netze (Backpropagation)
- 4. Ersatz für Neuronale Netze
- 5. Neuronale Netze Projekt?
- 6. Neuronale Netze zur Erzeugung?
- 7. RBF neuronale Netze
- 8. RBF Neuronale Netze C#
- 9. Benchmarks für künstliche neuronale Netze
- 10. Neuronale Netze Umgang mit Zeichendaten
- 11. Python: Tiefe neuronale Netzwerke
- 12. Implementierung einer Softmax-Aktivierungsfunktion für neuronale Netze
- 13. Jacobische Matrixberechnung für künstliche neuronale Netze
- 14. Fragen zu Q-Learning Neuronale Netze mit
- 15. Encog - Wie man Trainingsdaten für Neuronale Netze lädt
- 16. Können künstliche neuronale Netze mit mathematischen Mengen arbeiten?
- 17. Wie implementieren Sie rekursive neuronale Netze variabler Länge?
- 18. Gibt es ein gemeinsames Format für neuronale Netze?
- 19. Neuronale Netze: Entwurf der Kostenfunktion "nicht unterscheidbar"/Tensorflow
- 20. CPU vs GPU für (Conv) Neuronale Netze Berechnung
- 21. Neuronale Netze und Korrelation zwischen Eingang und Ausgang
- 22. Skalierung von Eingängen auf verschiedenen Skalen Neuronale Netze
- 23. Optimieren von selbstkodierten 2-Schicht Künstliche Neuronale Netze
- 24. Warum neuronale Netze sind in einem einfachen Klassifzierung Fall versagt
- 25. Wirkliche Verwendung der Welt für künstliche neuronale Netze
- 26. Neuronale Netze: Kombination von ReLus und Batch-Normalisierung?
- 27. Warum sind Eingaben für konvolutionelle neuronale Netze immer quadrierte Bilder?
- 28. Neuronale Netze: Minimal, Open Source Beispiel mit umfangreichen Trainingsdaten?
- 29. Wann sollte ich lineare neuronale Netze verwenden und wann nichtlinear?
- 30. Warum funktionieren neuronale Netzwerke so gut?