Ich habe eine Lasagne Code. Ich möchte das gleiche Netzwerk mit Caffe erstellen. Ich könnte das Netzwerk konvertieren. Aber ich brauche Hilfe mit den Hyperparametern in Lasagne. Die Hyper in Lasagne wie folgt aussehen:L2 Regularisierung in Caffe, Umwandlung von Lasagne
lr = 1e-2
weight_decay = 1e-5
prediction = lasagne.layers.get_output(net['out'])
loss = T.mean(lasagne.objectives.squared_error(prediction, target_var))
weightsl2 = lasagne.regularization.regularize_network_params(net['out'], lasagne.regularization.l2)
loss += weight_decay * weightsl2
Wie ich den L2 Regularisierung Teil in caffe führen Sie? Muss ich nach jeder Faltung/Innenproduktschicht eine Schicht zur Regularisierung hinzufügen? Relevante Teile von meinem solver.prototxt ist wie folgt:
base_lr: 0.01
lr_policy: "fixed"
weight_decay: 0.00001
regularization_type: "L2"
stepsize: 300
gamma: 0.1
max_iter: 2000
momentum: 0.9
auch in http://datascience.stackexchange.com geschrieben. Warte auf Antworten.
posten Sie bitte keine doppelten Fragen in mehreren Stackexchange-Sites. – Shai
auf datascience gepostet, auf Antworten gewartet, keine Antwort erhalten, dann habe ich auf stackoverflow gepostet. Ich werde fortan mehrfaches Posting vermeiden. – user27665