Ich habe eine Verlustfunktion implementiert, die numpy und opencv-Methoden verwendet. Diese Funktion verwendet auch das Eingabebild und die Ausgabe des Netzwerks.Verlustschicht auf Keras mit zwei Eingabeebenen und numpy Operationen
Ist es möglich, die Eingabe- und Ausgabeschichten in numplige Arrays zu konvertieren, den Verlust zu berechnen und ihn zur Optimierung des Netzwerks zu verwenden?