Ich versuche, einen Entscheidungsbaumklassifikator für die Bewertung von Baseballspielern mit der von scikit-learn bereitgestellten Funktion zu trainieren. Allerdings würde ich gerne einige Splits im Voraus "vorschreiben" oder "erzwingen", basierend auf dem, was ich weiß, dass die Expertenmeinung wahr ist (diese müssen unabhängig davon berücksichtigt werden). Zum Beispiel möchte ich eine Aufteilung basierend auf Batting-Durchschnitt> .300 erzwingen.Wie kann ich Splits im Entscheidungsbaum angeben?
Eine verwandte Frage ist - kann ich ein zuvor trainiertes Entscheidungsbaummodell "vorladen" und es lediglich in einem nachfolgenden Training "aktualisieren"? Oder muss der Decizio-Tree-Classifier jedes Mal, wenn ich ihn leite, alle Regeln neu lernen? Die Analogie, die ich hier versuchen möchte, ist das Übertragen von Lernen, aber das Anwenden von Entscheidungsbäumen.
Für die zweite Frage ist die Antwort meistens nein. DecisionTree muss alle Daten sehen, um die beste Aufteilung zu ermitteln, so dass das Transferlernen schwierig ist. –