2016-09-16 3 views
-5

Ich würde gerne wissen, ob es eine Möglichkeit gibt, eine Animation wie Siri zu machen, wenn Sie sprechen. Können Sie mir sagen, wenn Sie einen Weg wissen, dies in C# zu tun.Animation wie Siri, wenn Sie sprechen

+4

Ja. Es gibt Wege. Wenn Sie eine F & E-Abteilung haben und einige hundert Millionen ablehnen, lassen Sie es mich wissen - das klingt nach einem interessanten Projekt. WENN Sie jedoch etwas viel, viel bescheideneres suchen, versuchen Sie es mit Professor Google: https://www.google.com/search?q=c-sharp+voice+interaction&ie=&oe= wenn Sie bei irgendetwas hängen bleiben insbesondere lass es uns wissen und wir helfen! –

+0

Ich sprach über eine Linie, die sich bewegt, wenn das Mikrofon einen Ton fängt. Wie ein Equalizer, wenn Sie Musik hören. Ich sprach nicht davon, einen neuen Siri zu machen. – FlorianSL

+0

Es muss das ganze "wie Siri" -Ding gewesen sein, das mich geworfen hat. Wenn Sie nur einen Spektrumanalysator möchten, werfen Sie einen Blick hier: https://www.google.com/search?q=c-sharp+spectrum+analyzer+sound&ie=&oe= Der erste Link, den ich gepostet habe, teilt die aktuelle (nicht topaktuelle) Sprachkenntnisse. Suche.Spielen.Lernen. Dann frag! Viel Glück. –

Antwort

1

Offensichtlich gibt es einen Weg, dies zu erreichen - aber ist es die Mühe wert?

Was Sie benötigen: Ein Audio-Eingangsstrom. Ein Spektrumanalysator (etwas wie das, was das macht: http://www.qsl.net/dl4yhf/spectra1.html - es gibt mehr als genug signalverarbeitende Papiere da draußen). Ein Verdauungsformat, um es anzuzeigen. Eine neue Ansicht (abhängig von der von Ihnen gewählten Benutzeroberfläche), die diese Daten anzeigen kann.

Die Probleme sind hier multi-variant und außerhalb des Umfangs, um im Detail zu diskutieren (und Ihre Frage ist so breit und informativ, dass ich nicht bereit bin, zu sehr ins Detail zu gehen). Probleme, auf die Sie stolpern werden sind: Audio Input Lag, Processing Lag, Viewport-Lag und der Verbrauch der Daten und wahrscheinlich viele Probleme bei der schnellen Umsetzung mit einem Standard-MVC-Framework.

Die Fluidität von Siris UI dafür wird durch Rendering der Ansicht auf der GPU und mit einem richtigen Audio/Daten-Filter, der Spikes glättet erreicht. Dies ermöglicht weiche Übergänge und wirkt nicht annähernd so aggressiv wie eine schnelle Änderung eines exakten Spektrogramms.

+0

Ganz zu schweigen von den massiven proprietären Algorithmen, die mehrere Millionen Dollar kosten und die Daten verarbeiten und an die Backend-Funktionalität binden. Denn was nützt dir die Arbeit, wenn ein Computer dir zuhört, wenn er nur zuhört? –

+3

Wut? Er fragte speziell nach der Animation, wenn Sie sprechen - nicht die Daten zu verarbeiten. Allerdings: Wenn Sie natürliche Sprachmuster in einem winzigen Umfang analysieren wollen, ist das nicht wirklich teuer. Wenn Sie das tun, gibt es bereits Alternativen - zum Beispiel hat Microsoft einen kostenlosen Dienst, der natürliche Sprache in API-Aufrufe umwandelt (die keine aktuellen Preise haben und sich in einem frühen Stadium befinden. Ich habe den Namen nicht auf dem Kopf - aber Wenn Sie interessiert sind, kann ich es suchen. Edit: Sie haben vielleicht nicht gefragt, aber hier: https://www.luis.ai/ –