Die rechnerische Komplexität des dem Trainingssatz D gegebenen Algorithmus ist O (n * | D | log (| D |)), wobei n die Anzahl der die Tupel in D und | D beschreibenden Attribute ist | ist die Anzahl der Trainingstupel in D. Dies bedeutet, dass die Rechenkosten für das Wachstum eines Baumes höchstens um 0 (D) mit | D | ansteigen tuples.Ich kann nicht (| D |) Teil spezifisch protokollieren. Refrenece-Book Data minning Konzepte und tech.2nd Ausgabe Seitennummer 296 Thema-Klassifizierung und Vorhersage (Kapitel 6)Klassifikations- und Vorhersage Entscheidungsbaum
-2
A
Antwort
0
Die Höhe eines ausgeglichenen Baum höchstens O (log (n)). Ist dein Baum ausgeglichen?
Verwandte Themen
- 1. Branch Vorhersage und Leistung
- 2. Extract-Klassifikations-Funktion im überwachten Lernen
- 3. Unterschied zwischen Spekulation und Vorhersage
- 4. Entscheidungsbaum kontinuierliche attributes
- 5. Entscheidungsbaum mit kategorischen Merkmalen
- 6. Spark Entscheidungsbaum mit Spark
- 7. Entscheidungsbaum für signifikante Variablen
- 8. Entscheidungsbaum auf Informationsgewinn
- 9. ein Entscheidungsbaum-Modell
- 10. Vorhersage-Datensatz
- 11. Entscheidungsbaum mit endgültigem Text out
- 12. Entscheidungsbaum vs. Naive Bayes Klassifikator
- 13. Kann Entscheidungsbaum lernen "semi-überwacht"
- 14. Spark Entscheidungsbaum mit kategorischen Variablen
- 15. Visualizing Entscheidungsbaum in Scikit-Learn
- 16. Plot ein Entscheidungsbaum mit R
- 17. einen Entscheidungsbaum mit Python plotten
- 18. Vorhersage- und Konfidenzintervalle für die logistische Regression
- 19. Mehrstufige Vorhersage mit dplyr und tun
- 20. Neuronales Netzwerk seltsame Vorhersage
- 21. Vorhersage der Verarbeitungszeit
- 22. R PROGRAMMIE Hilfe und versuchen, einen Entscheidungsbaum (jetzt behoben Tippfehler)
- 23. Vorhersage mit Pandas OLS
- 24. Vorhersage statsmodel Argument Fehler
- 25. libsvm Vorhersage Methode Verwirrung
- 26. was in Entscheidungsbaum mit R Mittelwert y
- 27. Berechnung Entropie in Entscheidungsbaum (Maschinelles Lernen)
- 28. R: Plotten Entscheidungsbaum Etiketten verlassen Text abgeschnitten
- 29. Clustering-Algorithmus oben auf Entscheidungsbaum Lerner
- 30. Einen Entscheidungsbaum visualisieren (Beispiel von scikit-learn)
nein! Es ist actully während der bau eines decison tree es kann nicht ich binary tree. – ankit777
Auch nicht binäre Bäume haben die Höhe O (log n), solange sie nicht unär sind. –