0

Ich habe versucht, meine Daten mit Sklearn und MinMaxScaler-Methode zu normalisieren (0,1, 1) Aber das Ergebnis ist sehr enttäuschend. Ohne MinMax-Normalisierung hatte ich bei meinem Problem eine Genauigkeit von 78% und bei minimaler Normalisierung auf 71%. Weißt du, was könnte das Problem sein?Normalisierung produzieren schlechtes Ergebnis für mlp

Meine Daten Form: [N_SAMPLES] [1D_vector_of_values]

Hier ist, wie ich sklearn für normalisieren verwenden:

scaler = MinMaxScaler(feature_range=(0.1,10)) 
X = np.array(X) 
X_test = np.array(X_test) 
X = scaler.fit_transform(X) 
X_test = scaler.fit_transform(X_test) 

Dank für die Hilfe!

Antwort

1

Es ist nicht immer der Fall Normalisierung wird Ihnen ein gutes Ergebnis als ohne geben, da Sie einige Daten durch Anwendung dieser Unterscheidungsmethode verlieren. Alles hängt von der Art der Daten ab.

Ich würde versuchen, Standardisierung anstelle von Bereichsnormierung zu implementieren, aber vorsichtig sein, die gleiche Standardisierung Batch für Test und Validierung zu verwenden. Sie haben uns keine weiteren Informationen zu Ihren Daten gegeben, aber ich möchte Sie trotzdem bitten, die Feature-Auswahl nach der Normalisierung/Standardisierung zu implementieren.

+0

Hallo, danke für deine Antwort! Ich benutze einen Datensatz von Kaggle auf der Kredit-Score. Sie haben Form [Alter, Geschlecht, Jahreseinkommen, monatliche Rechnung, ...]. 10 Felder insgesamt. Gibt es eine Möglichkeit zu bestimmen, wann die Normalisierung angewendet werden soll? Und was ist Standardisierung Interesse vor Normalisierung? Für Feature-Auswahl, da ich neuronales Netz benutze, sollte das nn selbst tun nein? Danke! –

+0

hier ist ein Link erklärt den Unterschied. http://www.benetzkorn.com/2011/11/da-normalization-and-standardization/ Wie Sie sagten, ist es vielleicht wichtig, alle Funktionen zu behalten. Natürlich kann NN diese Arbeit nicht für dich erledigen. Es ist Ihre Aufgabe, Funktionen zu entwickeln, die Ihnen helfen, das beste Modell zu bauen. – Feras