0

Ich würde gerne verstehen, wenn ich kann und wenn es gültige Ansatz ist, Ihr MNB-Modell mit SGD zu trainieren. Meine Anwendung ist Textklassifizierung. In sklearn habe ich herausgefunden, dass es keine MNB gibt, und standardmäßig ist es SVM, aber NB ist das lineare Modell, nicht wahr?Kann ich SGD mit Multinomial Naive Bayes verwenden?

Also, wenn meine Wahrscheinlichkeit Parameter (mit Laplace-Glättung) als MNB likelihood param estimation

geschätzt werden Kann ich meine Parameter mit SGD aktualisieren und die Kostenfunktion zu minimieren?

enter image description here

Bitte lassen Sie mich wissen, ob SGD hier irrelevant ist. Danke im Voraus.

UPDATE: So bekam ich die Antwort und hoffe, dass ich es richtig gemacht habe, dass MNBs Parameter durch das Wort Vorkommen in dem gegebenen Eingabetext (wie tf-idf) aktualisiert werden. Aber ich verstehe immer noch nicht klar, warum wir SGD nicht für MNB-Training verwenden können. Ich würde es verstehen, wenn es in expliziter Beschreibung oder mit einer mathematischen Interpretation erklärt wird. Dank

+0

Das ist eine Frage wäre, für Faden ** CrossValidated ** – MMF

Antwort

0

In sklearn Ich habe herausgefunden, dass es keine MNB

Multinomiale naive Bayes in Scikit-Learn implementiert ist verfügbar. Es gibt keinen Gradientenabstieg zur Verwendung. Diese Implementierung verwendet nur relative Häufigkeiten zählen (mit Glättung), um die Parameter des Modells in einem einzigen Durchgang zu finden (was den Standard und effizienteste Weg, um ein MNB Modell zu passen):

http://scikit-learn.org/stable/modules/naive_bayes.html

+0

Danke. Ja, ich meinte "es gibt keine MNB verfügbar" für SGDClassifier-Modul, wo SGD SVM standardmäßig verwendet. Also ich dachte, dass wir unser beliebiges Modell mit SGD trainieren können, weil es die Kostenfunktion minimiert .. mit Gradienten. – Novitoll

Verwandte Themen