Die TF-Dokumentation hat einen output_shape-Parameter in tf.conv2d_transpose. Warum ist das nötig? Bestimmen nicht die Schritte, die Filtergröße und die Füllparameter des Layers die Ausgabeform dieses Layers, ähnlich wie es bei der Faltung entschieden wird?Warum müssen wir die Ausgangsform während der Dekonvolution im Tensorfluss angeben?
2
A
Antwort
2
wurde auf TF github Diese Frage schon gefragt und erhielt eine Antwort:
output_shape benötigt wird, weil die Form des Ausgangs notwendigerweise nicht von der Form des Eingangs berechnet werden, insbesondere wenn der Ausgang ist kleiner als der Filter und wir verwenden VALID Padding so die Eingabe ist ein leeres Bild. Allerdings ist dieser degenerierte Fall die meiste Zeit unwichtig, so dass es sinnvoll wäre, die Python Wrapper-Berechnung output_shape automatisch, wenn es nicht festgelegt ist.
Es ist sinnvoll, den gesamten Thread zu lesen.
Wenn Sie davon ausgehen, die folgende Notation, output = o
, input = i
, kernel = k
, stride = s
, padding = p
, die Form der ausgegeben wird:
Verwandte Themen
- 1. Warum müssen wir die init-Methode angeben?
- 2. Warum müssen wir die Anzahl der Flash-Wartezyklen angeben?
- 3. Warum müssen wir useTestNG() für Tests mit Gradle angeben?
- 4. Warum müssen wir den Datentyp jedes formalen Arguments separat angeben?
- 5. Warum müssen wir im Frühling Anmerkungen verwenden?
- 6. Warum müssen wir nicht neu für die Erstellung des Err-Objekts in der Hauptmethode angeben?
- 7. Chargennormalisierung im Tensorfluss
- 8. Warum müssen wir vor() warten()?
- 9. Warum müssen wir ./ für die Ausführung Shell-Skript verwenden
- 10. Warum müssen wir Dilect definieren, wenn wir Treiber bereits in der Konfigurationsdatei im Ruhezustand definiert haben
- 11. Zyklischer Verlust im Tensorfluss
- 12. Spring-do müssen wir die Bean in XML angeben, wenn wir Annotation verwenden
- 13. warum müssen wir localrc-datei für openstack
- 14. Warum müssen wir die Variable __block auf Null setzen?
- 15. Wie wird die Einheitsvarianz im Tensorfluss berechnet?
- 16. Müssen wir wirklich im MapReduce-Framework sortieren?
- 17. Beacon: Warum müssen wir Tx power
- 18. Warum müssen wir Objective-C-Objektfeld beibehalten?
- 19. Warum müssen wir UpdateWindow nach ShowWindow aufrufen?
- 20. Warum müssen wir eval JSON Klammern hinzufügen?
- 21. Warum müssen wir Platz vor% c setzen?
- 22. Müssen wir die Verbindungs-Metadaten
- 23. Warum müssen wir gespeicherte Prozedur verwenden?
- 24. Warum müssen wir Lua's collectgarbage() zweimal anrufen?
- 25. Warum/wann müssen wir super.ViewDidLoad aufrufen?
- 26. Warum müssen wir <> für eine Vorlagenklasse mit Standardparametern angeben?
- 27. Warum müssen wir die Verbindungszeichenfolge in app.config setzen?
- 28. Warum müssen wir die Cache-Größe klein halten?
- 29. Warum müssen wir die run() -Methode überschreiben Thread-Klasse
- 30. Zwei Listen im Tensorfluss falten