Ich bin eine Definition einer Funktion gegeben und gebeten, es zu implementieren, wie folgt:Implementierung Mittelwert Null und Varianz in numpy
# Problem 1 - Apply zero mean and zero variance scale to the image features
def normalize(data):
pass
dann mit einem Unit-Test unter Verwendung von numpy
versehen, die den Erfolg meiner Implementierung behaupten würde
EDIT
Dieser nicht mein Unit-Test, sondern durch den Lehrer des Kurses zugewiesen.
np.testing.assert_array_almost_equal(
normalize(np.array([1, 2, 3, 4, 5, 6, 7, 8, 9, 10])),
np.array([-0.4, -0.3, -0.2, -0.099, 0.0, 0.099, 0.199, 0.3, 0.4, 0.5]),
decimal=3)
Meine Lösung ist
def normalize(data):
return ((data - data.mean())/data.max() - data.min())
Aber es muss eine Lücke in meinem Verständnis, weil ich
immer binAssertionError:
Arrays are not almost equal to 3 decimals
(mismatch 100.0%)
x: array([-1.45, -1.35, -1.25, -1.15, -1.05, -0.95, -0.85, -0.75, -0.65, -0.55])
y: array([-0.4 , -0.3 , -0.2 , -0.099, 0. , 0.099, 0.199, 0.3 ,
0.4 , 0.5 ])
Mit googeln ich auch
finden(data - data.mean())/data.std()
Nach mehr Suche versuchte ich
(data - data.mean())/data.var()
Aber keine Lösung behauptet korrekt.
Also, was ist die korrekte Implementierung hier?
Warum die down vote? –