2016-11-29 1 views
0

Ich arbeite an einem Projekt zum Erstellen eines Synthesizers für meine lokale Sprache mit einem HMM-basierten Ansatz. Bisher konnte ich eine Datei für die erzwungene Ausrichtung generieren (aligned.mlf), wie im HTK-Buch erklärt. Ich finde jedoch keine Schritt-für-Schritt-Anleitung zum Aufbau des Synthesizers mit HTS. Was ich getan habe, ist das Beispiel Speaker Dependent Demo auf der HTS-Website herunterzuladen und diese Daten zu trainieren. Was ich im Sprachordner habe, ist eine cmu_us_arctic_slt.htsvoice Datei. Also meine 2-teilige Frage ist:Erstellen einer neuen Stimme für Festival mit HTS

1) Wie verwende ich diese Datei als Stimme in Festival?

2) Wie kann ich die Dateien label und utt erzeugen, die benötigt werden, um meine Stimme aus der erzwungenen Ausrichtungsdatei zu trainieren, die ich habe?

Jede Hilfe wird sehr geschätzt. Vielen Dank.

Antwort

1

Sie müssen zunächst die Festivalsprache implementieren (Schema-Dateien schreiben) und eine Unitselection-Voice erstellen, wie in documentation beschrieben.

Sie brauchen voice_lex.scm, voice_pos.scm, voice_clunits.scm und einige mehr.

Sie generieren erforderliche Dateien wie utts im Zuge der Sprachauswahl für die Einheitenauswahl.

Verwandte Themen