Ich möchte die Verwendung von Gaussian Mixture-Modelle in Hidden-Markov-Modelle verstehen.Anzahl der Parameter in GMM-HMM
Angenommen, wir haben Sprachdaten und wir erkennen 5 Sprachlaute (die Zustände von HMM sind). Zum Beispiel ist 'X' die Sprachprobe und O = (s, u, h, b, a) (unter Berücksichtigung von Zeichen anstelle von Telefonen nur der Einfachheit halber) HMM-Zustände. Nun verwenden wir das Gauß'sche Mischungsmodell von 3 Mischungen, um die Gauss'sche Dichte für jeden Zustand mit Hilfe der folgenden Gleichung zu schätzen (Sorry kann Bild wegen Reputationspunkten nicht hochladen).
P (X | O) = Summe (i = 1-> 3) w (i) * P (X | mu (i), var (i)) (unter Berücksichtigung univariate Verteilung)
So, Wir lernen zuerst die GMM-Parameter aus den Trainingsdaten mit dem EM-Algorithmus. Dann verwenden Sie diese Parameter zum Erlernen von HMM-Parametern und sobald dies erledigt ist, verwenden wir beide auf Testdaten. In allen lernen wir 3 * 3 * 5 (Gewicht, Mittelwert und Varianz für 3 Mischungen und 5 Zustände) Parameter für GMM in diesem Beispiel. Ist mein Verständnis korrekt?
Nikolay Shmyrev: nur um die Anzahl der Parameter pro Telefon zu klären wird 39 sein (Mittelwert) +39 (Varianz) +1 (?), Was ist 1 für? – suhas
Nikolay Shmyrev: Nur um die Anzahl der Parameter pro Telefon zu klären wird 39 sein (Mittelwert) +39 (Varianz) +1 (?), Was ist 1 für? Auch wäre es nur 79, wenn es eine Gaußsche 1 Mischung ist. Wenn es sich um eine Mischung aus 10 Komponenten handelt, dann wäre die Gesamtzahl der Parameter 10 * 79 pro Telefon (unter Berücksichtigung nur des Einzelzustands). Ich habe recht? – suhas
1 ist für das Gewicht. Sie haben recht, für 10 Mischungen haben Sie 10 * 79 Parameter. –