2017-01-29 4 views

Antwort

1

Dies wird allgemein als Transferlernen bezeichnet. Sie trainieren im Prinzip ein neuronales Netzwerk auf einem großen Dataset (wie ImageNet) und verwenden dann den Featurevektor, der von der letzten Faltungsschicht erzeugt wird, um einen anderen Klassifikator (z. B. eine SVM mit mehreren Klassen) zu trainieren), und das funktioniert auch, wenn die Objekte unterschiedlich sind.

Eine andere Möglichkeit besteht darin, ein vortrainiertes Netzwerk zu verwenden und den Klassifiziererteil (die vollständig verbundenen Schichten) neu zu trainieren. Es ist immer noch schneller als ein Netzwerk von Grund auf neu zu trainieren.

Verwandte Themen