Wenn ich es richtig verstanden habe, kann ich eine 3-Layered NN
in eine DL NN
durch Zugabe einer der hidden layer
+ RelU
von einem 3-Schichten NN zu Deep Learning mit relu gehen
Wiederholung RelU
nach the hidden layer
, dann verwandeln Ich bin Schwierigkeiten beim Visualisieren, wie die Dimensionalität funktionieren wird. Ich habe jetzt die folgenden von einem small library Ich stelle zusammen, damit ich
M = 784 # 28 x 28 pixels
N = 512 # hidden neurons
P = 10 # number of possible classes
w1 = np.random.normal(0.0, pow(10, -0.5), (M, N))
w2 = np.random.normal(0.0, pow(10, -0.5), (N, P))
b1 = np.random.normal(0.0, pow(10, -0.5), (N))
b2 = np.random.normal(0.0, pow(10, -0.5), (P))
x = Input(w1, b1)
h = Hidden(x, w2, b2)
g = Softmax(h)
cost = CrossEntropy(g) # numpy.mean(CrossEntropy) over BATCH SIZE
train_data()
in den Konzepten sinken kann Aber ich will
x = Input(w1, b1)
h = Hidden(x, w2, b2)
r = ReLU(h)
h2 = Hidden(r, ??, ??) # 1
r2 = ReLU(h2) # 2
.. <repeat 1 and 2>
g = Softmax(h)
cost = CrossEntropy(g) # numpy.mean(CrossEntropy) over BATCH SIZE
train_data()
Related article I a writing about this