Trainieren eines neuronalen Netzwerks, in dem N Trainingsbeispiele die gleichen Attribute und Klassifizierungen enthalten. Beispiel:Trainiert ein neuronales Netzwerk mit gleichen Trainingsbeispielen schlechte Praxis?
Ausbildung example1 = [1,1,1,1], Klassifizierung = [1]
Ausbildung example2 = [1,1,1,1], Klassifizierung = [1]
Es verschwendet Trainingsstunden mit 'Trainingsbeispiel2', da es nicht zur Gesamtqualität des neuronalen Netzwerks beiträgt.
Das Trainingssatz sollte ein Hinweis auf die Daten sein, die das Netzwerk nach dem Training klassifiziert. Wenn Sie wissen, dass einige der Eingangssignale, die Sie klassifizieren werden, häufiger als andere angezeigt werden, empfiehlt es sich, das Netzwerk stärker auf diese Dateneinträge abzuzielen. Mit anderen Worten, es könnte nicht verschwenderisch sein – jorgenkg
@jorgenkg können Sie näher auf "wean das Netzwerk mehr auf diese Dateneinträge", meinst du eine zusätzliche Bias-Layer verwenden? –
Sagen wir, die echten Daten, die Sie klassifizieren werden, sind '[a, a, a, a, b, c]'. Mit anderen Worten, ein spezifisches Klassifizierungsmuster erscheint eher in den realen Daten. Dann möchten Sie, dass das Netzwerk das Muster "a" wahrscheinlicher klassifiziert. Wenn Ihre realen Daten jedoch ähnlich wie "[a, a, b, b, c, c]" sind, sollte das Trainingssatz auch ca. das gleiche Verhältnis zwischen den verschiedenen Eingabemustern. (Wenn ich den Begriff Eingabemuster verwende, beziehe ich mich auf die Menge von Eingabevektoren, die als dieselbe Klasse klassifiziert werden sollte). – jorgenkg