Aus dem DCGAN-Papier [Radford et al. https://arxiv.org/pdf/1511.06434.pdf] ...
„The relu Aktivierung (Nair & Hinton, 2010) in den Generator mit der Ausnahme des Ausgabe Schicht verwendet wird, die die tanh-Funktion verwendet. Wir haben beobachtet, dass eine beschränkte Aktivierung unter Verwendung des Modells erlaubt zu lernen Sie schneller, den Farbraum der Trainingsverteilung zu sättigen und abzudecken Innerhalb des Diskriminators fanden wir die leaky rektifizierte Aktivierung (Maas et al., 2013) (Xu et al., 2015) gut funktionieren, besonders für höhere Auflösung Modellierung. Dies ist im Gegensatz zu der ursprünglichen GAN-Papier, die die maximale Aktivierung verwendet (Goodfellow et al., 2013). "
Es könnte sein, dass die Symmetrie von tanh hier von Vorteil ist, da das Netzwerk auf eine symmetrische Weise dunklere Farben und hellere Farben behandeln sollte.
Es wäre nützlich, wenn Sie einen Link zu einem Papier oder Code bereitstellen könnten, damit jeder genau weiß, wovon Sie sprechen. –
Haben Sie eine zufriedenstellende Antwort gefunden? Ich suche auch nach der Antwort. –