Ich habe gerade angefangen, über Entscheidungsbäume mit Adaboost zu lernen und probiere es auf OpenCV aus und habe einige Fragen.Entscheidung Bäume/Stümpfe mit Adaboost
Boosted Decision Trees
Ich verstehe, dass wenn ich AdaBoost mit Decision Trees, ich kontinuierlich fit Decision Trees zu Neugewichtung Version der Trainingsdaten. Die Klassifizierung erfolgt nach einer gewichteten Mehrheit.
Kann ich Bootstrapping beim Training von Entscheidungsbäumen mit Adaboost verwenden? das heißt, wir wählen Teilmengen unseres Datensatzes aus und trainieren einen Baum auf jeder Teilmenge, bevor wir die Klassifizierer in Adaboost einspeisen. Stumps
Boosted Entscheidung
Habe ich die gleiche Technik verwenden für die Entscheidung Stumps? Oder kann ich stattdessen Stümpfe erstellen, die der Anzahl der Features entsprechen? I.e. Wenn ich 2 Klassen mit 10 Funktionen habe, erstelle ich für jede Funktion insgesamt 10 Entscheidungsstümpfe, bevor ich die Klassifikatoren in Adaboost füttere.
warum ist diese Frage nicht in datascience.SE? – alexeykuzmin0