0

Ich trainiere einige CNN auf eine Bildklassifizierung Aufgabe. Auf einer einfachen Version funktionierte das gut, aber als ich die Bilder schwieriger machte, begegnete ich nun diesem Phänomen (ich ließ es über Nacht trainieren):Beziehung zwischen Crossentroy Verlust und Accurary

Während des Trainings sinkt der Trainings-Crossentropie-Verlust. Außerdem sinkt der Crossentropieverlust in meinem Testdatensatz. Ich vermesse weiter die Genauigkeit, die sich anders verhält. Am Anfang ging es hoch, erst wieder runter und dann schwankte es zwischen 0.1 und 0.3. Ich habe erwartet, dass der Crossentropieverlust und der Accurary etwas miteinander verwandt sind - da sie beide auf demselben Testdatensatz gemessen werden.

Kann mir jemand das erklären? Oder habe ich einen Fehler in meinem Code?

Vielen Dank

Antwort

0

Die Quer Entropie immer ist nicht direkt mit dem metrischen Fehler im Zusammenhang. In der Regel korreliert es gut genug mit der Fehlerrate. Eine weitere typische Option ist die Minimierung des Bayes-Risikos. Das Bayes-Risiko ist einfach die Erwartung in Bezug auf Ihr Modell des Fehlers (umgekehrt Genauigkeit). Dies ist ein kontinuierlicher Verlust und sollte besser mit Ihrer Fehlerrate korrelieren. Außerdem ist das Messen des Trainingsfehlers normalerweise eine gute zu verfolgende Metrik.

Verwandte Themen