Ich arbeite an einem Projekt zum Erstellen eines Synthesizers für meine lokale Sprache mit einem HMM-basierten Ansatz. Bisher konnte ich eine Datei für die erzwungene Ausrichtung generieren (aligned.mlf), wie im HTK-Buch erklärt. Ich finde jedoch keine Schritt-für-Schritt-Anleitung zum Aufbau des Synthesizers mit HTS. Was ich getan habe, ist das Beispiel Speaker Dependent Demo auf der HTS-Website herunterzuladen und diese Daten zu trainieren. Was ich im Sprachordner habe, ist eine cmu_us_arctic_slt.htsvoice
Datei. Also meine 2-teilige Frage ist:Erstellen einer neuen Stimme für Festival mit HTS
1) Wie verwende ich diese Datei als Stimme in Festival?
2) Wie kann ich die Dateien label
und utt
erzeugen, die benötigt werden, um meine Stimme aus der erzwungenen Ausrichtungsdatei zu trainieren, die ich habe?
Jede Hilfe wird sehr geschätzt. Vielen Dank.