2016-07-05 3 views
8

Ich habe eine Verlust Wert/Funktion und ich möchte alle zweiten Derivate in Bezug auf einen Tensor f (der Größe n) berechnen. Ich habe es geschafft, tf.gradients zweimal zu verwenden, aber wenn ich es zum zweiten Mal anwende, summiert es die Ableitungen über die erste Eingabe (siehe second_derivatives in meinem Code).Wie berechnet man alle zweiten Ableitungen (nur die Diagonale der hessischen Matrix) in Tensorflow?

Auch ich schaffte es, die Hesse-Matrix zu erhalten, aber ich möchte nur seine Diagonale berechnen, um zusätzliche Berechnungen zu vermeiden.

import tensorflow as tf 
import numpy as np 

f = tf.Variable(np.array([[1., 2., 0]]).T) 
loss = tf.reduce_prod(f ** 2 - 3 * f + 1) 

first_derivatives = tf.gradients(loss, f)[0] 

second_derivatives = tf.gradients(first_derivatives, f)[0] 

hessian = [tf.gradients(first_derivatives[i,0], f)[0][:,0] for i in range(3)] 

model = tf.initialize_all_variables() 
with tf.Session() as sess: 
    sess.run(model) 
    print "\nloss\n", sess.run(loss) 
    print "\nloss'\n", sess.run(first_derivatives) 
    print "\nloss''\n", sess.run(second_derivatives) 
    hessian_value = np.array(map(list, sess.run(hessian))) 
    print "\nHessian\n", hessian_value 

Mein Denken war, dass tf.gradients (first_derivatives, f [0, 0]) [0] zum Beispiel der zweite Ableitung in Bezug auf abrufen funktionieren würde F_0 aber es scheint, dass tensorflow nicht erlauben, von einer Scheibe eines Tensors abzuleiten.

Antwort

6

tf.gradients([f1,f2,f3],...) berechnet Gradienten von f=f1+f2+f3 Auch um x[0] hinsichtlich Differenzierung ist problematisch, weil x[0] zu einem neuen Slice Knoten beziehen, das nicht ein Vorfahr des Verlustes ist, so Ableitung bezüglich es None sein wird. Sie können es umgehen, indem Sie pack verwenden, um x[0], x[1], ... zusammen in xx zu kleben und Ihren Verlust von xx anstelle von x abhängig zu machen. Eine Alternative besteht darin, getrennte Variablen für einzelne Komponenten zu verwenden, in welchem ​​Fall das Berechnen von Hessian in etwa so aussehen würde.

def replace_none_with_zero(l): 
    return [0 if i==None else i for i in l] 

tf.reset_default_graph() 

x = tf.Variable(1.) 
y = tf.Variable(1.) 
loss = tf.square(x) + tf.square(y) 
grads = tf.gradients([loss], [x, y]) 
hess0 = replace_none_with_zero(tf.gradients([grads[0]], [x, y])) 
hess1 = replace_none_with_zero(tf.gradients([grads[1]], [x, y])) 
hessian = tf.pack([tf.pack(hess0), tf.pack(hess1)]) 
sess = tf.InteractiveSession() 
sess.run(tf.initialize_all_variables()) 
print hessian.eval() 

Sie werden sehen

[[ 2. 0.] 
[ 0. 2.]] 
+0

Tanks für Ihre Antwort, leider ist es wirklich nicht helfen, weil ich würde mag nur die Diagonale des Hessischen abrufen. Ich habe versucht, pack mit x [0], x [1] zu verwenden ... aber es gibt mir immer noch einen Fehler. –

+1

'hess0 = tf.gradienten ([Grad [0]], [x]); hess1 = tf.gradienten ([grads [1]], [y]) 'würde nur diagonale Einträge berechnen –

+0

Danke, ich habe es endlich geschafft, es mit dem zu tun, was du zuletzt geantwortet hast und tf.pack()! –

Verwandte Themen