2017-03-01 3 views
0

Was ich gelesen habe, sagt, dass die Ausgabe die Eingabe ist, und dass, wenn Sie einen Fehler haben, versuchen, eine Beobachtung zu rekonstruieren, dann ist es anomal. Das macht Sinn für mich. Das Problem, das ich habe, ist das:Erklären Sie mir Auto-Encoder bitte

Ich bin vertraut mit überwachten Methoden, also hier ist, was ich denke. Normalerweise, wenn Sie ein Modell machen, haben Sie eine Beobachtung, normalerweise mit vielen Eigenschaften, die zu einem Ergebnis führen. Sie erfahren, wie sich diese Merkmale auf das Ergebnis auswirken.

Für einen Auto-Encoder, ist es wahr, dass jede Beobachtung n-1 Funktionen verwendet, um das verbleibende Merkmal vorherzusagen? Das Modell wird unter der Annahme einer versteckten Struktur erstellt und dann versucht es, es so zu rekonstruieren?

Nur ein wenig verwirrt, dank

Antwort

0

Was ich gelesen habe, sagt, dass der Ausgang der Eingangs

Streng genommen ist, wollen wir die Ausgabe als „schließen“ zu sein, wie die Eingabe. Beim maschinellen Lernen haben wir eine Verlustfunktion (z. B. Kreuzentropie, L2-Norm), je näher der Ausgang an den Eingang kommt, desto geringer ist der Verlust. Aber die Abmessungen von Eingang und Ausgang sind die gleichen.

, wenn Sie einen Fehler haben versucht, eine Beobachtung zu rekonstruieren, dann

In dem Autoencoder anomal ist, ist die Anzahl der Neuronen der versteckten Schicht kleine als die Anzahl von Neuronen der Eingangsschicht. Vor diesem Hintergrund geht ein Teil der Informationen während der Rekonstruktion verloren.

Für einen Auto-Encoder, ist es wahr, dass jede Beobachtung verwendet n-1 Merkmale

Was ist n? Sie können eine beliebige Anzahl von Neuronen für versteckte Ebenen auswählen, solange die Anzahl kleiner als die der Eingabe ist.

Verwandte Themen