2012-05-16 3 views

Antwort

34

Es ist eigentlich ein sehr gutes Beispiel on Wikipedia:

In einfachen Worten, ein Bayes-Klassifikator geht davon aus, dass die Anwesenheit (oder Abwesenheit) eines bestimmten Merkmals einer Klasse auf das Vorhandensein nicht verwandt ist (oder Abwesenheit) von irgendeinem anderen Merkmal, gegeben der Klassenvariablen. Zum Beispiel kann eine Frucht als ein Apfel betrachtet werden, wenn sie rot, rund und etwa 4 "im Durchmesser ist. Selbst wenn diese Merkmale voneinander oder von der Existenz der anderen Merkmale abhängen, berücksichtigt ein naive Bayes-Klassifizierer alle diese Eigenschaften unabhängig die Wahrscheinlichkeit beitragen, dass diese Frucht ist ein Apfel.

im Grunde ist es „naiv“, weil es Annahmen macht, die richtig erweisen kann oder auch nicht.

+5

Der Wikipedia-Artikel erklärt es richtig, aber ich stimme nicht zu, dass "es Annahmen macht, die sich als richtig herausstellen können oder nicht". Mit der richtigen Menge an Trainingsdaten können die irrelevanten Parameter herausgefiltert werden. Der "naive" Teil ist, dass die Abhängigkeit zwischen den Parametern nicht berücksichtigt wird und daher redundante Daten betrachtet werden müssen. – Chip

6

Wenn sie Ihre Daten Sie besteht aus einem Merkmalsvektor X = {x1, x2, ... x10} und Ihren Klassenbezeichnungen Y = {y1, y2, .. y5} Somit identifiziert ein Bayes-Klassifikator das korrekte Klassenlabel als dasjenige, das das Folgende maximiert Formel:

P (y/X) = P (X/y) * P (y) = P (x1, x2, ... x10/y) * P (y)

Also für, ist es immer noch nicht naiv. Es ist jedoch schwierig, P (x1, x2, ... x10/Y) zu berechnen, also nehmen wir an, dass die Merkmale unabhängig sind. Dies nennen wir die Naive-Annahme. Daher haben wir stattdessen die folgende Formel

P (y/X) = P (x1/y) * P (x2/y) * ... P (x10/y) * P (y)

2

es ist naiv genannt, weil es die Annahme macht dass alle Attribute unabhängig voneinander sind. Diese Annahme wird als naiv bezeichnet, da dies in vielen realen Situationen nicht passt. Trotzdem funktioniert der Klassifikator sehr gut in vielen realen Situationen und hat in einigen Fällen (wenn auch nicht in allen Fällen) eine vergleichbare Leistung wie neutrale Netzwerke und SVMs.

0

Einstufung als wir finden die gemeinsame Verteilung das Problem ist, dass es die Trainingsdaten nur Spiegel und auch sehr schwer zu berechnen ist. Wir brauchen also etwas, das sinnvoller verallgemeinert werden kann.

Das naive Modell verallgemeinert, dass jedes Attribut unabhängig von anderen Attributen verteilt wird.

Es hilft wirklich, in nicht zu den Eigenschaften in hohem Maße über die Abhängigkeit zu kümmern.

Verwandte Themen