2017-07-28 3 views
1

Ich importiere ein vortrainiertes Modell und verwende es, um einige Daten zu klassifizieren. Ist es normal, dass sich die vorhergesagten Werte/Endgenauigkeit jedes Mal ändern, wenn ich das Modell für den gleichen Datensatz laufe?Die Testgenauigkeit ändert sich für denselben Datensatz ständig

Ich druckte auch die Softmax-Werte der letzten Schicht. Die Wahrscheinlichkeiten ändern sich ständig.

+0

Nein sollte es nicht während der Prüfung. –

+0

Tatsächlich können sich Wahrscheinlichkeiten ein wenig auf GPU ändern (dh tf.reduce_sum ist aufgrund von CuDNN-Atomen nicht deterministisch), aber normalerweise nicht genug, um den tatsächlich vorhergesagten Wert zu ändern. Hat Ihre Pipeline irgendeine Zufälligkeit? (z. B. randomshufflequeue) –

+0

Ich mische die Daten während des Trainings, aber nichts während des Testens. Ich habe das Modell unverändert importiert. Es ist eine Conv -> LSTM-Architektur, wenn das hilft. – AnnaR

Antwort

1

Ich treffe gerade die same issue vor kurzem, und schließlich fand ich die Ursache eine Dropout-Schicht in meinem Modell, hoffe, dass dies hilft.

+0

Das macht Sinn! Ich habe 2 Dropout-Layer im Modell. Sie halfen jedoch, die Leistung zu erhöhen. Gibt es dafür eine Arbeit? – AnnaR

+0

So funktioniert es, wenn Sie konsistente Ergebnisse erzielen müssen, verwenden Sie keine solchen Ebenen in Ihrem Modell, was sich auch auf die Leistung Ihres Modells auswirkt. @AnnaR –

Verwandte Themen