Wir in der Regel die folgenden Ergebnisse erhalten, wenn wir den folgenden Befehl ausführen: -Wie wird der informativste Feature-Prozentsatz in Naive Bayes Nltk Python berechnet?
classifier.show_most_informative_features(10)
Ergebnisse:
Most Informative Features
outstanding = 1 pos : neg = 13.9 : 1.0
insulting = 1 neg : pos = 13.7 : 1.0
vulnerable = 1 pos : neg = 13.0 : 1.0
ludicrous = 1 neg : pos = 12.6 : 1.0
uninvolving = 1 neg : pos = 12.3 : 1.0
astounding = 1 pos : neg = 11.7 : 1.0
Hat jemand weiß, wie dies 13,9, 13,7 usw. berechnet wird?
Auch können wir die informativsten Funktionen mit der folgenden Methode classifier.show_most_informative_features (10) mit Naive Bayes erhalten, aber wenn wir die gleichen Ergebnisse mit logistischen Regression erhalten möchten, könnte bitte jemand den Weg vorschlagen, um das zu bekommen. Ich habe einen Post im Stackoverflow gesehen, aber dafür benötige ich einen Vektor, den ich nicht zum Erstellen von Features verwende.
classifier = nltk.NaiveBayesClassifier.train(train_set)
print("Original Naive bayes accuracy percent: ", nltk.classify.accuracy(classifier,dev_set)* 100)
classifier.show_most_informative_features(10)
LogisticRegression_classifier = SklearnClassifier(LogisticRegression())
LogisticRegression_classifier.train(train_set)
print("LogisticRegression accuracy percent: ", nltk.classify.accuracy(LogisticRegression_classifier, dev_set)*100)
Irgendwelche Hilfe? ............................ – user3222101