Ich studiere Convolutional Neural Networks. Ich bin verwirrt über einige Schichten in CNN.ReLu und Dropout in CNN
In Bezug auf ReLu ... Ich weiß nur, dass es die Summe einer unendlichen logistischen Funktion ist, aber ReLu keine Verbindung zu irgendwelchen oberen Schichten. Warum brauchen wir ReLu und wie funktioniert es?
In Bezug auf Dropout ... Wie funktioniert Dropout? Ich habe ein Video von G. Hinton gehört. Er sagte, dass es eine Strategie gibt, die beim Training der Gewichte zufällig die Hälfte der Knoten ignoriert und das Gewicht bei der Vorhersage halbiert. Er sagt, es sei von zufälligen Wäldern inspiriert und arbeite genauso wie das geometrische Mittel dieser zufällig trainierten Modelle.
Ist diese Strategie die gleiche wie Dropout?
Kann mir jemand helfen, das zu lösen?
Eine sehr gute Quelle ist das [CVPR 2014 Tutorial zur visuellen Erkennung im großen Stil] (https://sites.google.com/site/lsvrtutorialcvpr14/home/deeplearning) von [Marc'Aurelio Ranzato] (http://www.cs.toronto.edu/~ranzato/). Es stellt beide Themen vor und erläutert sie. – deltheil
@deltheil Es tut mir leid, aber ich kann nichts über Dropout in dem Papier finden, das du verlinkt hast. Durchsucht das Dokument nach "Aussetzer" gibt drei Vorkommen zurück, alle drei nur eine Erwähnung, dass Aussetzer hier verwendet wird. Haben Sie eine Seite nr, auf der Details fehlen? Ich lese es schon durch, habe aber nichts über Dropout gefunden – DBX12