Ok, fast alle Anwendungen, die ich gesehen habe, die HoG-Funktionen verwenden, verwenden lineare SVM als Klassifikator. Kann mir jemand erklären, warum lineare SVM gewählt werden und warum sie gute Leistung bringen?Warum funktioniert lineares SVM gut mit HoG-Deskriptoren?
Wird lineares SVM gewählt, weil es einfacher und einfacher zu trainieren ist als svms, das polynomialen oder gaußschen Kern verwendet und die Verwendung dieser Kerne keine wesentlich bessere Leistung ergibt?
Training mit nicht-linearen Kernel kommt nicht immer mit einer guten Leistung. Nichtlineare Kernel führen manchmal zu Übertraining und damit zu schlechter Testleistung. Dies hat manchmal damit zu tun, wie kompliziert Ihre Daten sind. In der Regel können nicht komplexe Daten in Kombination mit einem RBF-Kernel die Testgenauigkeit beeinträchtigen (Übertraining, nicht Modellverallgemeinerung in Objekten). Eine Kernel-Entscheidung und eine gute Kalibrierung von ihnen können die Leistung signifikant beeinflussen. Ich hoffe das hilft! – Darkmoor
@endif Interessante Frage. Versuchen Sie Folgendes: "Warum funktionieren lineare SVMs, die mit HOG-Funktionen trainiert wurden, so gut?" http://arxiv.org/abs/1406.2419 – Bull