2016-05-10 4 views
0

Ich bin neu in Node js und arbeite mit IBM Speech to Text Beispielanwendung (https://github.com/watson-developer-cloud/speech-to-text-nodejs). Es verwendet das Express-Framework und druckt transkribiertes Audio vom Mikrofon in ein Textfeld auf der Webseite sowie in die Browserkonsole. Andere Beispiele, die ich bei der Verwendung von Express gesehen habe, sind in der Befehlszeilenkonsole enthalten. Kann mir jemand erklären, warum console.log anstelle der Befehlszeile an die Browser-Konsole ausgegeben wird?Node JS Express und Konsole Ausgabe an die Befehlszeile im Vergleich zum Browser

Vielen Dank

Antwort

2

console.log Ausgänge in den Browser-Konsole, weil es auf Client-Seite ausgeführt wird. In wenigen Sätzen: Wenn Sie in Ihrem Browser 'http://localhost:3000' eingeben, macht Ihr Browser eine GET-Anfrage an '/' Ihrer Nodejs-App. Wie Sie sehen können, wird diese Anfrage in 47 Zeile von app.js verarbeitet. Ihre Anwendung rendert die ./views/index.ejs Datei in eine HTML-Seite und sendet sie an den Client. Also, alle Logik läuft auf der Client-Seite. Ihre NodeJs-Anwendung stellt dem Benutzer lediglich eine HTML-Seite zur Verfügung. Wenn Sie die Spracherkennung serverseitig ausführen möchten, können Sie einen der folgenden Schritte ausführen: 1. Audiodaten von Micro zu Server streamen und dann auf dem Server erkennen. 2. Audiodaten auf der Client-Seite speichern, bis die Aufzeichnung endet, und dann gespeicherte Daten an den Server senden, der Server erkennt . (wie Audiodatei zu Texterkennung) 3. google über Watson Server-Server-Sprache Anerkennung.

+0

Ich glaube 1) klingt wie, was ich will. Wenn ich verstehe, was Sie sagen, sollte ich den Audio-Eingang direkt von meinem Mikrofon bekommen und es zum Server streamen? Anstatt die Browser Mikrofonerkennung zu verwenden? Könnte so etwas verwendet werden: https://www.npmjs.com/package/microphone? – amartin7211

+0

amartin7211 Wenn Sie die Nodejs-App als Konsolenanwendung für die Spracherkennung verwenden möchten und kein Mikrofon von der Clientseite aus überhaupt erkennen müssen, können Sie das Mikrofon npm-Paket auf der Serverseite verwenden. Aber verwenden Sie Nodejs als Konsolenanwendung ist dunkle Seite Weg IMHO. Wenn Sie möchten, dass Benutzer Sprache über Ihren Server erkennen können, anstatt direkt von IBM zu erkennen, sollten Sie Daten vom Mikrofon zum Server streamen und sie dann auf dem Server erkennen. Sie können auch alle auf dem Client erkennen und Ergebnisse der Erkennung an den Server senden. Und Druckergebnisse zum Beispiel auf dem Server. Es ist einfacher. – CrazyMax

Verwandte Themen