Ich verwende Feed Forward, Gradientenabstieg, Backpropagation neuronalen Netzen wo versteckte/Ausgabe Neuronen tanh Aktivierungsfunktion verwenden und Eingabe Neuronen linear sind .Was ist der beste Weg, um negative/nicht numerische Daten für tanh Aktivierung neuronalen Netzen zu normalisieren
Was ist der beste Weg, Ihrer Meinung nach, für numerische Daten zu normalisieren, wenn:
Maximale Anzahl bekannt ist und zum Beispiel maximale positive Zahl würde negativ -1000 1000 und maximal sein.
Maximale Anzahl ist nicht bekannt.
Und wenn ich die maximale Anzahl für alle Eingänge halten sollte oder wäre es in Ordnung, wenn Netzwerk der Eingänge unterschiedliche Normalisierungs Art und Weise haben?
Danke!