2017-12-30 37 views
0

Ich lese die Xception Papier und in diesem Papier wurde in Teil 4.7 erwähnt, dass die besten Ergebnisse ohne jede Aktivierung erreichbar sind. Jetzt möchte ich dieses Netzwerk auf Videos mit Keras Toolbox verwenden, aber das Modell in Keras verwendet 'ReLU' Aktivierungsfunktion. Gibt das Modell in Keras das beste Modell zurück oder ist es besser, die Relukt-Schichten wegzulassen?Ist das Xceptionsmodell in Keras das beste Modell, das in der Arbeit beschrieben wurde?

Antwort

1

Sie verwechseln normale Aktivierungen, die für konvolutionelle und dichte Schichten verwendet werden, mit den in der Veröffentlichung erwähnten. Abschnitt 4.7 behandelt nur die Aktivierung zwischen tiefen- und punktweisen Windungen, der Rest der Aktivierungen in der Architektur bleibt unverändert.

Verwandte Themen