Ich arbeite an einem Bilderkennungsprojekt in Python. Ich habe in Fachzeitschriften gelesen, dass, wenn die Clusterbildung, die durch eine selbstorganisierende Karte (SOM) durchgeführt wird, in ein überwachtes neuronales Netzwerk eingegeben wird, die Genauigkeit der Bilderkennung im Gegensatz zum überwachten Netzwerk verbessert wird. Ich habe dies selbst versucht, indem ich eine Bibliothek verwendet habe, um Clustering durchzuführen und die Koordinaten des gewinnenden Neurons nach jeder Iteration als Eingabe in ein mehrschichtiges Perzeptron aus dem Keras zu verwenden. Die Genauigkeit ist jedoch sehr schlecht.Wie man eine selbstorganisierende Karte und ein mehrschichtiges Perzeptron in Python kombiniert
Kennt jemand eine andere Möglichkeit, ein SOM und ein mehrschichtiges Perzeptron zu kombinieren, als die gewinnenden SOM-Koordinaten zu verwenden?
Ich nicht jetzt, wenn ich richtig verstehe. Trainierst du zuerst die SOM-Schicht und nach dem unbeaufsichtigten Training gibst du MLP-gewinnende Neuronenkoordinaten? – viceriel
Ja, ich trainiere zuerst das SOM, das die Bilder gruppiert, die ich eingegeben habe. Nach dem unbeaufsichtigten Training der SOM speichere ich die gewinnenden x, y Koordinaten in einem 2d numpy Array und ich liefere dies als Eingabe an die MLP, aber die Testgenauigkeit der MLP ist wirklich niedrig und ich fragte mich, ob es einen anderen Weg gab Kombinieren Sie ein SOM und ein MLP mit Ausnahme der Koordinaten –
Mögliches Duplikat von [Hybrid SOM (mit MLP)] (https://stackoverflow.com/questions/36434218/hybrid-som-with-mlp) –