Wie kann ich Max-Norm-Einschränkungen für die Gewichte in einem MLP in Tensorflow implementieren? Die Art, die Hinton und Dean in ihrer Arbeit über dunkles Wissen beschreiben. Das heißt, tf.nn.dropout die Gewichtsbeschränkungen standardmäßig zu implementieren, oder müssen wir es explizit tun, wie inWie kann ich maximale Normbedingungen in einem MLP im Tensorflow implementieren?
https://arxiv.org/pdf/1207.0580.pdf
„Wenn diese Netze die gleichen Gewichte für die verborgenen Einheiten teilen, sind Wir verwenden das standardmäßige, stochastische Gradientenabstiegsverfahren zum Trainieren der neuralen Ausfallnetzwerke in Minibehältern von Trainingsfällen, aber wir modifizieren den Strafterm, der normalerweise verwendet, um zu verhindern, dass die Gewichte zu groß werden die quadrierte Länge (L2-Norm) des gesamten Gewichtsvektors, legen wir eine Obergrenze für die L2-Norm des eingehenden Gewichtes fest Vektor für jede einzelne versteckte Einheit. Wenn ein Gewicht-Update diese Einschränkung verletzt, wir die Gewichte der verborgenen Einheit durch Teilung renormieren „
Keras zu haben scheint es
Wäre das nicht 'tf.clip_by_norm' und nicht' tf.clip_by_value'? – MiniQuark