Kann Google Speech API mit Beispieldaten trainiert werden, um die Erkennung in meiner Anwendung zu erleichtern?Korrekte Erkennungsergebnisse von Google Speech API
Was ich meine, ist ein Ansatz wie der von wit.ai zur Verfügung gestellt und beschrieben here (obwohl das Beispiel für die Verarbeitung von Nlp gilt). Wenn Sie die Interaktionen Ihrer Benutzer mit Ihrem Bot vorhersagen können, können Sie diese besser trainieren. Zum Beispiel, ich kenne die Teilmenge der Städte, die verwendet werden, zB: es scheint, dass ich den Bot nicht verstehen lassen kann, wenn ich Zurich
sage, es wird Syria
oder Siberia
, aber ich weiß bereits, dass das nicht möglich ist. Also, wenn ich, sagen wir, eine Liste von bevorzugten Wörtern hochladen kann, die zuerst verwendet werden sollen, und wenn keine Übereinstimmung gefunden wird, gibt es einen Rückgriff auf die Standarderkennung oder einen ähnlichen Ansatz. Ich denke, es wird bessere Ergebnisse erzielen.
Irgendeine Idee, wenn es möglich ist und wie? Ich weiß, dass diese APIs im Beta-Stadium sind und sich ändern können, aber ich würde es trotzdem gerne versuchen.
Ich kann ein Codebeispiel von dem, was ich gerade mache, hochladen, obwohl es nur ein Audio sendet und das Ergebnis bisher analysiert, also nicht wirklich nah an diesem Problem.
nicht dispare, es ist ein Nebenprojekt und atm Ich habe keine Zeit, daran zu arbeiten, aber sobald ich wieder darauf bin, werde ich Sie wissen lassen, ob Ihre Antwort mir hilft (ich bemerkte das Vertrauen bereits, aber vielleicht hat man bei den Mehrfachoptionen übersehen, ich hatte den Eindruck es war nur einer nicht so sicher) – ThanksForAllTheFish