0

die Protokollverlustgleichung Unter der Annahme zu sein:Schließt logischer logarithmischer Verlust einen Teil der auf y basierenden Gleichung aus?

logLoss=−(1/N)*∑_{i=1}^N (yi(log(pi))+(1−yi)log(1−pi))

wo N ist die Anzahl der Proben, yi...yiN den Ist-Wert der abhängigen Variablen ist, und pi...piN ist die vorhergesagte Wahrscheinlichkeit von logistischen Regressions

Wie ich betrachte es:

wenn yi = 0 dann den ersten Teil yi(logpi) = 0

Alternativ, wenn yi = 1 dann der zweite Teil (1−yi)log(1−pi) = 0

So jetzt, je nach dem Wert von y ein Teil der Gleichung ausgeschlossen ist. Verstehe ich das richtig?

Mein ultimatives Ziel ist es zu verstehen, wie man die Ergebnisse des Log-Verlustes interpretiert.

Antwort

1

Ja, Sie sind auf dem richtigen Weg. Wenn man bedenkt, dass p_i=P(y_i=1) im Grunde die Idee ist, dass die Verlustfunktion so definiert werden muss, dass sie die Tupel bestraft, für die die Vorhersage nicht mit der tatsächlichen Marke übereinstimmt (z. B. wenn y_i=1, aber p_i niedrig ist) oder durch den yi(logpi) Teil, wenn y_i=0 aber p_i hoch ist, betreut von dem (1-yi)log(1-pi) Teil) und zugleich sollte es nicht die Tupel bestraft viel, für die die Vorhersage des tatsächliche Etikett übereinstimmt (zB wenn y_i=1 und p_i hoch ODER wenn y_i=0 und p_i niedrig ist).

Die Verlustfunktion für logistische Regression (cross entropy) adressiert genau die oben erwünschte Eigenschaft der Verlustfunktion, wie aus der folgenden Abbildung ersichtlich ist.

enter image description here

+1

Vielen Dank. Es ist nicht so intuitiv wie ein einfacher Genauigkeitswert. Aber ich bekomme, wie es Ungenauigkeit abhängig von p_i bestraft –

Verwandte Themen