Ich bin neu in Node js und arbeite mit IBM Speech to Text Beispielanwendung (https://github.com/watson-developer-cloud/speech-to-text-nodejs). Es verwendet das Express-Framework und druckt transkribiertes Audio vom Mikrofon in ein Textfeld auf der Webseite sowie in die Browserkonsole. Andere Beispiele, die ich bei der Verwendung von Express gesehen habe, sind in der Befehlszeilenkonsole enthalten. Kann mir jemand erklären, warum console.log anstelle der Befehlszeile an die Browser-Konsole ausgegeben wird?Node JS Express und Konsole Ausgabe an die Befehlszeile im Vergleich zum Browser
Vielen Dank
Ich glaube 1) klingt wie, was ich will. Wenn ich verstehe, was Sie sagen, sollte ich den Audio-Eingang direkt von meinem Mikrofon bekommen und es zum Server streamen? Anstatt die Browser Mikrofonerkennung zu verwenden? Könnte so etwas verwendet werden: https://www.npmjs.com/package/microphone? – amartin7211
amartin7211 Wenn Sie die Nodejs-App als Konsolenanwendung für die Spracherkennung verwenden möchten und kein Mikrofon von der Clientseite aus überhaupt erkennen müssen, können Sie das Mikrofon npm-Paket auf der Serverseite verwenden. Aber verwenden Sie Nodejs als Konsolenanwendung ist dunkle Seite Weg IMHO. Wenn Sie möchten, dass Benutzer Sprache über Ihren Server erkennen können, anstatt direkt von IBM zu erkennen, sollten Sie Daten vom Mikrofon zum Server streamen und sie dann auf dem Server erkennen. Sie können auch alle auf dem Client erkennen und Ergebnisse der Erkennung an den Server senden. Und Druckergebnisse zum Beispiel auf dem Server. Es ist einfacher. – CrazyMax