Was ist naiv an Naive Bayes?Was ist "naiv" in einem naiven Bayes Klassifikator?
Antwort
Es ist eigentlich ein sehr gutes Beispiel on Wikipedia:
In einfachen Worten, ein Bayes-Klassifikator geht davon aus, dass die Anwesenheit (oder Abwesenheit) eines bestimmten Merkmals einer Klasse auf das Vorhandensein nicht verwandt ist (oder Abwesenheit) von irgendeinem anderen Merkmal, gegeben der Klassenvariablen. Zum Beispiel kann eine Frucht als ein Apfel betrachtet werden, wenn sie rot, rund und etwa 4 "im Durchmesser ist. Selbst wenn diese Merkmale voneinander oder von der Existenz der anderen Merkmale abhängen, berücksichtigt ein naive Bayes-Klassifizierer alle diese Eigenschaften unabhängig die Wahrscheinlichkeit beitragen, dass diese Frucht ist ein Apfel.
im Grunde ist es „naiv“, weil es Annahmen macht, die richtig erweisen kann oder auch nicht.
Der Wikipedia-Artikel erklärt es richtig, aber ich stimme nicht zu, dass "es Annahmen macht, die sich als richtig herausstellen können oder nicht". Mit der richtigen Menge an Trainingsdaten können die irrelevanten Parameter herausgefiltert werden. Der "naive" Teil ist, dass die Abhängigkeit zwischen den Parametern nicht berücksichtigt wird und daher redundante Daten betrachtet werden müssen. – Chip
Wenn sie Ihre Daten Sie besteht aus einem Merkmalsvektor X = {x1, x2, ... x10} und Ihren Klassenbezeichnungen Y = {y1, y2, .. y5} Somit identifiziert ein Bayes-Klassifikator das korrekte Klassenlabel als dasjenige, das das Folgende maximiert Formel:
P (y/X) = P (X/y) * P (y) = P (x1, x2, ... x10/y) * P (y)
Also für, ist es immer noch nicht naiv. Es ist jedoch schwierig, P (x1, x2, ... x10/Y) zu berechnen, also nehmen wir an, dass die Merkmale unabhängig sind. Dies nennen wir die Naive-Annahme. Daher haben wir stattdessen die folgende Formel
P (y/X) = P (x1/y) * P (x2/y) * ... P (x10/y) * P (y)
es ist naiv genannt, weil es die Annahme macht dass alle Attribute unabhängig voneinander sind. Diese Annahme wird als naiv bezeichnet, da dies in vielen realen Situationen nicht passt. Trotzdem funktioniert der Klassifikator sehr gut in vielen realen Situationen und hat in einigen Fällen (wenn auch nicht in allen Fällen) eine vergleichbare Leistung wie neutrale Netzwerke und SVMs.
Einstufung als wir finden die gemeinsame Verteilung das Problem ist, dass es die Trainingsdaten nur Spiegel und auch sehr schwer zu berechnen ist. Wir brauchen also etwas, das sinnvoller verallgemeinert werden kann.
Das naive Modell verallgemeinert, dass jedes Attribut unabhängig von anderen Attributen verteilt wird.
Es hilft wirklich, in nicht zu den Eigenschaften in hohem Maße über die Abhängigkeit zu kümmern.
- 1. Naive Bayes Klassifikator mit binären Daten
- 2. Verwendung von naiven Bayes Modell zur Vorhersage
- 3. Entscheidungsbaum vs. Naive Bayes Klassifikator
- 4. N-Gramm mit Naive Bayes Klassifikator
- 5. Wie man die a k-falten Kreuzvalidierung in Scikit mit Naive Bayes Klassifikator und NLTK
- 6. Normale Bayes Implementierung in OpenCV
- 7. Inferenz in einem Bayes-Netzwerk
- 8. Ist das naiv gleich, Hashcode OK?
- 9. interpretieren Naive Bayes Ergebnisse
- 10. Ich muss naiven Bayes Text Klassifizierung durchführen. Fehler beim Ausführen der naiveBayes() Methode
- 11. Naive Bayes Classifier Fehler
- 12. TextBlob Naive Bayes Textklassifikation
- 13. Ist kNN ein statistischer Klassifikator?
- 14. Unbekannte Klasse in einem Bayes-Klassifizierer erkennen
- 15. Einfaches Beispiel mit BernoulliNB (Bayes-Klassifikator) Scikit-Learn in Python - erklären kann nicht Klassifizierung
- 16. Bild von einem Klassifikator anzeigen
- 17. Naive Bayes Klassifikator: Muss die Korpusgröße für jede Kategorie gleich sein?
- 18. spark-ml naive bayes Speichern auf hdfs
- 19. Speichern Sie Naive Bayes Trained Classifier in NLTK
- 20. Klassifikator Vorhersagen sind unzuverlässig, ist das, weil mein GMM Klassifikator nicht richtig trainiert ist?
- 21. Machine Learning Naive Bayes Klassifizierer in Python
- 22. Implement Gaussian Naive Bayes
- 23. Algorithmus verstehen - multinomiale naive Bayes
- 24. Objektorientierte Bayes-Spam-Filterung?
- 25. sknn Mehrschicht-Perzeptron Klassifikator
- 26. Funkenrandom Klassifikator NumClasses
- 27. Multinomiale Naive Bayes in bnlearn, Vorhersage Klärung
- 28. Mit Naive Bayes neuen Werte
- 29. Naive Bayes Classifier Mathematik - Mangel an Präzision in Computing
- 30. Wie trainiert man einen Klassifikator mit einem Array von Arrays?
Sie brauchen nicht peinlich Peddler sein, haben Sie eine gute Frage gestellt. +1 – Yavar