Zum Beispiel würde der folgende Code keinen Implementierungsfehler haben?ist es in Ordnung, integrierte Tensorflow-Funktionen als Aktivierungen eines neuronalen Netzes zu verwenden?
import tensorflow as tf
x_data = [1, 2, 3]
y_data = [1, 2, 3]
W = tf.Variable(tf.random_uniform([1], -1.0, 1.0))
b = tf.Variable(tf.random_uniform([1], -1.0, 1.0))
X = tf.placeholder(tf.float32, name="X")
Y = tf.placeholder(tf.float32, name="Y")
hypothesis = tf.maximum(tf.add(tf.mul(W, X), b),0)
cost = tf.reduce_mean(tf.square(hypothesis - Y))
optimizer = tf.train.GradientDescentOptimizer(learning_rate=0.1)
train_op = optimizer.minimize(cost)
_, cost_val = tf.Session.run([train_op, cost], feed_dict={X: x_data, Y: y_data})
Notieren Sie sich die in dem obigen Code, habe ich `tf.maximum (tf.add (tf.mul (W, X), b), 0) in Bezug auf denen bin ich nicht so sicher sein Umsetzbarkeit, weil ich nicht weiß, wie groß Backpropagation sein kann.
Eine allgemeinere Frage ist, dass jede Aktivierungsfunktion, die aus eingebauten Tensorflow-Funktionen konstruiert wird, mit Backpropagation in tf.Session trainiert werden kann?
Meine Frage mit anderen Worten, kommt jede Tensorflow-Mathematikoperation mit ihren Gradienteninformationen?
Ich denke, [tf.nn.relu_layer] (https://www.tensorflow.org/api_docs/python/tf/nn/relu_layer) ist das, was Sie wollen? – xxi
@xxi Nicht im Allgemeinen. – julypraise