Ich möchte maxout Aktivierungsfunktion in Tensorflow verwenden, aber ich weiß nicht, welche Funktion verwenden sollte.Wie benutzt man die maximale Aktivierungsfunktion im Tensorflow?
0
A
Antwort
1
Ich glaube nicht, dass es eine maximale Aktivierung gibt, aber es gibt nichts, das dich davon abhält, es selbst zu machen. Sie könnten etwas wie das Folgende tun.
with tf.variable_scope('maxout'):
layer_input = ...
layer_output = None
for i in range(n_maxouts):
W = tf.get_variable('W_%d' % d, (n_input, n_output))
b = tf.get_variable('b_%d' % i, (n_output,))
y = tf.matmul(layer_input, W) + b
if layer_output is None:
layer_output = y
else:
layer_output = tf.maximum(layer_output, y)
Beachten Sie, dass dieser Code ich in meinem Browser gerade geschrieben haben, so gibt es Syntaxfehler sein können, aber Sie sollten die allgemeine Idee. Sie führen einfach eine Anzahl linearer Transformationen durch und nehmen das Maximum über alle Transformationen hinweg.
4
ich eine Pull-Anforderung für MaxOut, ist der Link hier gesendet:
https://github.com/tensorflow/tensorflow/pull/5528
-Code wird wie folgt: Hier
def maxout(inputs, num_units, axis=None):
shape = inputs.get_shape().as_list()
if axis is None:
# Assume that channel is the last dimension
axis = -1
num_channels = shape[axis]
if num_channels % num_units:
raise ValueError('number of features({}) is not a multiple of num_units({})'
.format(num_channels, num_units))
shape[axis] = -1
shape += [num_channels // num_units]
outputs = tf.reduce_max(tf.reshape(inputs, shape), -1, keep_dims=False)
return outputs
ist, wie es funktioniert:
0
Wie wäre es mit diesem Code? Das scheint in meinem Test zu funktionieren.
def max_out(input_tensor,output_size):
shape = input_tensor.get_shape().as_list()
if shape[1] % output_size == 0:
return tf.transpose(tf.reduce_max(tf.split(input_tensor,output_size,1),axis=2))
else:
raise ValueError("Output size or input tensor size is not fine. Please check it. Reminder need be zero.")
verweise ich das Diagramm in the following page.
Verwandte Themen
- 1. Wie ändere ich die Aktivierungsfunktion in LSTM-Zelle in Tensorflow
- 2. Wie benutzt man Tensorflow auf Spyder?
- 3. Hard Limiting/Threshold Aktivierungsfunktion in TensorFlow
- 4. Wie benutzt man die Externals im Webpack?
- 5. Wie benutzt man die Methode control_abhängigkeiten von Tensorflow?
- 6. Wie benutzt man die offizielle Schichtnormalisierungsschicht in TensorFlow?
- 7. Wie wird eine lineare Aktivierungsfunktion in TensorFlow verwendet?
- 8. TensorFlow: Wie benutzt man CudnnLSTM mit variabler Eingangslänge (wie dynamic_rnn)?
- 9. Wie kann man die maximale Anzahl der einzelnen Zeilen im Tensorflow durch zwei teilen?
- 10. Wie benutzt man Shader Uniformen im Allgemeinen?
- 11. Wie benutzt man Ajax im Codezeichner?
- 12. Wie benutzt man jquery im Projekt?
- 13. Wie benutzt man OrderBy im jpa Federspeicher?
- 14. Wie benutzt man ein Kommandozeilenargument im Unittest?
- 15. Verwenden einer anderen Aktivierungsfunktion im ADALINE-Algorithmus?
- 16. Wie benutzt man die Adresse der Funktion im Funktionszeiger?
- 17. Wie benutzt man die Bitbucket Source Control im Android Studio?
- 18. Visual Studio. Wie benutzt man die Suche im Disassembly-Fenster?
- 19. Wie benutzt man die MagicalRecord Library im Kakaotouch-Framework?
- 20. Welche Aktivierungsfunktion wird im nce_loss verwendet?
- 21. Wie man Bilddrehung im Tensorflow macht?
- 22. Wie erhält man die aktuell verfügbaren GPUs im Tensorflow?
- 23. Wie kann man die Multidimension des Arrays im Tensorflow erhöhen?
- 24. Wie verstehen Sie die Faltungsparameter im Tensorflow?
- 25. Wie benutzt man Split?
- 26. Wie benutzt man die Django-Diskussion?
- 27. Wie benutzt man history.js?
- 28. Wie man dynamische Quelle im jquery Kombinationsfeld in einer androiden Anwendung benutzt, die phonegap benutzt
- 29. SMSGATEWAY.ME - Wie benutzt man die PHP API?
- 30. Theano HiddenLayer Aktivierungsfunktion