0

Ich bin mir nicht sicher, ob es möglich ist aber trotzdem,System.Sprach.Rechtsanzeige; Hintergrundsteuerung oder Spracherkennung

Ich benutze using System.Speech.Recognition; in winform C# app.

Ich frage mich, ob es nicht nur möglich ist, Sprache zu erkennen, sondern auch Stimme erkennen, irgendwie erkennt Unterschied zwischen dem verschiedenen Stimmen

etwas in der Nähe zum Lesen von mehrfach Inhalt von jeder separaten Stimme zu bekommen, zum Beispiel aus zwei gleichzeitig oder getrennt sprechende Benutzer als zwei verschiedene.

Oder zumindest vielleicht einige Methode Hintergrund Lautstärke zu steuern, zum Beispiel wenn AudioLevelUpdated Ereignis mir Eingangslautstärke sehen können, aber vielleicht gibt es auch einige spezifische Art und Weise laute Stimme aus dem zusätzlichen Lärm oder Stimmen im Hintergrund zu trennen

+0

Ich habe Angst, dass Sie von einem freien sdk zu viel erwarten ... –

+0

@ Lei Yang, so dass es unmöglich ist ... –

+0

ich bin nicht sicher^_^ –

Antwort

0

System.Speech.Recognition wird Ihnen bei der Spracherkennung nicht helfen. System.Speech.Recognition ist für Sprache in Text gedacht. Das Hinzufügen von Grammatik verbessert die Effizienz. Sie können den Windows-Desktop für eine bessere Konvertierung trainieren. Siehe Spracherkennung in der Systemsteuerung.

Es gibt einige Bibliotheken von Drittanbietern für die Spracherkennung. Zum Entfernen von Störungen können Sie sich auf Sound visualizer in C# beziehen.

Sie können eine interessante Diskussion bei msdn forum finden.

+0

hallo, danke, interessante Information –

0

Ich denke, Sie sollten einen Blick auf CRIS werfen, die Teil von Microsoft Cognitive Services ist, zumindest für Sie Frage über Rauschen.

CRIS ist ein benutzerdefinierter Sprachdienst und wird hauptsächlich zur Verbesserung der Qualität von Sprache in Text mit benutzerdefinierten akustischen Modellen (wie Hintergrundgeräusche) und zum Erlernen von Vokabeln mit Hilfe von Beispielen verwendet.

Sie können importieren:

  • Acoustic Datasets

  • Sprache Datensätze

  • Aussprache Datensätze

Zum Beispiel in akustischen Modellen Sie haben:

  • Microsoft-Konversationsmodell zum Erkennen von Sprache, die im Konversationsstil gesprochen wird (d. H. Rede, die auf eine andere Person gerichtet ist).

  • Microsoft-Such- und Diktiermodell für Sprache, die an eine Anwendung gerichtet ist, z. B. Befehle, Suchanfragen oder Diktate.

Es gibt auch eine Speaker Recognition API in Vorschau

+0

hi, danke, sehr nützliche Info –