Ich bin ziemlich neu Tensorflow und ML im Allgemeinen, so entschuldige ich mich hiermit für eine (wahrscheinlich) triviale Frage.Wie wird das Dropout für Tests in Tensorflow deaktiviert?
Ich benutze die Dropout-Technik, um die Lernraten meines Netzwerks zu verbessern, und es scheint gut zu funktionieren. Dann würde Ich mag das Netzwerk auf einige Daten zu testen, um zu sehen, ob es funktioniert wie folgt:
def Ask(self, image):
return self.session.run(self.model, feed_dict = {self.inputPh: image})
Offensichtlich ergibt es unterschiedliche Ergebnisse jedes Mal, als der Ausfall noch vorhanden ist. Eine Lösung, die ich mir vorstellen kann, ist, zwei getrennte Modelle zu erstellen - eines für ein Training und das andere für eine tatsächliche spätere Nutzung des Netzwerks. Eine solche Lösung erscheint mir jedoch unpraktisch.
Was ist der übliche Ansatz zur Lösung dieses Problems?