2016-10-13 2 views
0

Die lineare Regression funktioniert nicht, wenn die Anzahl der Features größer als die Datasetgröße ist. sofern keine Regularisierung angewendet wird. Hat SVM auch ähnliche Probleme? Wird es keine gute Annäherung geben, wenn die Anzahl der Beispiele im Vergleich zur Dimensionalität der Merkmale geringer ist? Sagen Sie, wenn die Beispiele 1/10 oder 1/100 der Features sind ??Wenn die Anzahl der Features viel größer ist als die Anzahl der Beispiele im Dataset funktioniert SVM immer noch?

+0

Diese Frage wäre bei [Cross Validated] (http://stats.stackexchange.com/) viel passender. Wenn Sie jedoch dort posten, kann es am Ende als doppelt markiert werden, weil eine Post-Liste (http://stats.stackexchange.com/questions/35276/svm-overfitting-curse-of-dimensionality) antworten sollte Ihre Frage. – Tchotchke

Antwort

0

Wenn die Anzahl der Beispiele im Vergleich zur Anzahl der Features geringer ist, hätten Sie nicht genügend Daten für eine nichtlineare SVM, dh SVM mit nicht linearem Kernel. Eine SVM mit linearem Kernel (oder ohne Kernel) ist eine Möglichkeit gehen.

Wenn Sie eine nichtlineare SVM verwenden möchten, müssen Sie die Kernelparameter und Regularisierungsparameter sorgfältig auswählen und sie richtig einstellen.

Was ich meine ist, dass es kein inhärentes Problem mit der Verwendung einer SVM (oder anderer regulierten Modelle) auf ein Problem mit Hunderten von Beobachtungen und Tausenden von Attributen gibt, vorausgesetzt die Regularisierungsparameter sind richtig abgestimmt.

Verwandte Themen