Wie in der Dokumentation angegeben "Wenn nInputDim angegeben wird, werden Eingaben, die größer als dieser Wert sind, als Stapel betrachtet, bei denen das tatsächliche zu füllende Dim die Dimension dim + 1 ist." Mein Verständnis ist die Eingaben Dimension größer als die bereitgestellten nInputDim, die Dimension Dim wird Dim + 1, aber warum ist es?In Torch, Modul = nn.Padding (Dim, Pad, nInputDim, Wert, Index), Was macht die nInputDim?
Antwort
Übrigens, ich denke, das Dokument, das Sie erwähnten, sollte this link sein.
Angenommen, Sie 3 default Nullen am Ende von 1 (ersten) dim, machen wollen, so dass Sie ein Polstermodul wie unten machen:
require 'nn';
dim = 1
pad = 3
module = nn.Padding(dim, pad)
given_tensor = torch.ones(4, 2)
print(given_tensor)
res_tensor = module:forward(given_tensor)
print(res_tensor)
Wenn Sie diese Zeilen in Fackel-Interpreter ausführen, Sie erhalten ein Ergebnis wie unten, Sie fügen 3 Paddings bei 1 (erste) Dim erfolgreich hinzu, wenn Sie 4x2 Tensor zu 7x2 Tensor transformieren.
1 1
1 1
1 1
1 1
[torch.DoubleTensor of size 4x2]
1 1
1 1
1 1
1 1
0 0
0 0
0 0
[torch.DoubleTensor of size 7x2]
Was passiert, wenn man nInputDim
-1 wie unten angeben?
require 'nn';
dim = 1
pad = 3
nInputDim = 1
module = nn.Padding(dim, pad, nInputDim)
given_tensor = torch.ones(4, 2)
print(given_tensor)
res_tensor = module:forward(given_tensor)
print(res_tensor)
, wenn Sie sie ausführen, werden Sie wie bekommen führen unter
1 1
1 1
1 1
1 1
[torch.DoubleTensor of size 4x2]
1 1 0 0 0
1 1 0 0 0
1 1 0 0 0
1 1 0 0 0
[torch.DoubleTensor of size 4x5]
Sie nInputDim
wollen 1 sein, aber Ihre Eingabe Dim 2, Es wird erste Dimension nehmen, 4
, als Batch Größe und machen 3 Padding zu jedem Artikel in der Charge, es macht 4 Größe von 2 Tensoren zu 4 Größe von 5 Tensoren. Es funktioniert so, als ob Sie 3 Padding auf 2 (dim = dim + 1, second) dim von Tensor 4x2 machen, was das gleiche Ergebnis, 4x5, ergibt.
- 1. Was macht `create index` in Cassandra-Tabellen?
- 2. die Verwechslung von 'nn', 'dp' und 'dpnn' Modul in Torch
- 3. Was macht "von MODUL import _" in Python?
- 4. Torch - Lua/Get max Index von Matrix
- 5. Torch Installationsproblem: Modul "Torchcwrap" nicht gefunden
- 6. Was ist die Beziehung zwischen Torch und Lua?
- 7. Was ist die Beziehung zwischen PyTorch und Torch?
- 8. Was macht ein Modul zu einem pragmatischen Modul?
- 9. Ausgewähltes Pad-Pad-Problem
- 10. In GDB, was macht * (x + value) = Wert?
- 11. Pad Index in Dateinamen mit Null und akzeptieren Platzhalter
- 12. Was ist der Unterschied zwischen view() und unpress() in Torch?
- 13. Was macht die Kodierungskodierung?
- 14. Was macht die! -Funktion()?
- 15. Was macht LOWERCASE_EXPANDED_TERMS in Lucene?
- 16. Was macht die Cmpq-Anweisung?
- 17. Was macht np.r_ (numpy)?
- 18. Was DbContext wenn Dim Ergebnisse = Me.Objects
- 19. Was macht class_methods in Angelegenheiten?
- 20. Was macht Me.Invoke (string)?
- 21. Was macht Amor in Linux?
- 22. Seite dim mit rgba im offenen Menü nicht dim Textfarbe
- 23. Versuch Index global ‚Fackel‘ (ein Null-Wert)
- 24. Was für ein Modul Pfad Index in Racket
- 25. Pad links und Pad rechts (Pad Center) String
- 26. Was macht die Funktion tf.nn.embedding_lookup?
- 27. Was macht die Bindung langsam?
- 28. Was macht die registerNatives() Methode?
- 29. Was macht die Funktion invisible()?
- 30. Was macht die vorfieldinit Flagge?
Woher hast du 'nn.Padding'? Kannst du uns zur offiziellen Dokumentation führen? –