2013-04-04 14 views
7

Ich bin neu in WebRTC und versuche herauszufinden, wie man ein Programm außerhalb eines Browsers erstellt, der einen WebRTC-Audiostream empfängt und auf Lautsprechern ausgibt. Gibt es WebRTC-Bibliotheken für Java oder C#? Dieser Empfänger wird auf einem Linux-Rechner ausgeführt.Erstellen eines WebRTC-Empfängers

-

Ich habe über die Verwendung von getUserMedia() denken, das Mikrofon zuzugreifen. Aber dann: In welchem ​​Format wird ein solcher Stream übertragen? Nehmen wir an, ich benutze WebRTC2SIP und baue einen Java-Endpunkt mit JSIP; oder ich benutze einfach einen Socket und sende den Stream über http. Welches Audioformat erhalte ich auf der Empfängerseite? Bisher habe ich gelesen, WebRTC komprimiert irgendwie den Stream.

Antwort

4

ich denke, es gibt zwei Möglichkeiten für Sie:

  1. bauen Sie die gesamte WebRTC-Sprach-Engine für Android/iOS oder Mac etc., und verwenden Sie einfach die API von VOE bereitgestellt.
  2. bauen Sie eigenständige NS/VAD/AECM/AGC-Module und verwenden Sie es in Ihrem Projekt. Zum Beispiel, Sie erstellen Standalone-NS-Modul für Android Mobile, verwenden Sie AudioRecord (Java-Schicht, Android-Dinge), um Ton von MIC aufzunehmen, und die Rauschunterdrückung für diese Daten (jni Schicht, WebRTC Sachen), und schließlich die verarbeiteten Daten mit AudioTrack (Java-Ebene, Android-Dinge).

EDIT:

  1. für die zweite Situation ist das Format Rohdaten PCM.
+0

Danke. Ich habe mich schließlich entschieden, deinen zweiten Vorschlag zu verwenden. – telandor

3

Überprüfen Sie die Arbeits Audio Demo und Code aus bei demo.easyrtc.com

Der Code ist alle Open-Source und kann bei https://github.com/priologic/easyrtc

Sie ausgecheckt werden können in unserem Forum suchen nach bekannten Problemen rund um easyRTC an https://groups.google.com/forum/#!forum/easyrtc

überprüfen Sie auch unsere Website unter easyrtc.com out

+0

Vielen Dank! easyRTC ist ein Framework um den Zugriff auf WebRTC zu vereinfachen, oder? Ich möchte einen eigenen Server/Endpunkt außerhalb eines Browsers erstellen, um den WebRTC-Audio-Stream zu empfangen. – telandor

+1

@DougPelton: Ich denke, das OP fragt nach der Verwendung der Client-API * auf dem Server *, um eine Client-Server-Verbindung mit niedriger Latenz und nicht eine Verbindung zwischen Peers herzustellen. Ist das etwas mit easyrtc? –

+0

Um den Audiostream auf der Client-Seite zu empfangen, können Sie easyrtc verwenden. Aber Sie können easyrtc nicht verwenden, um den Audiostream serverseitig zu empfangen. Für die Serverseite können Sie https://github.com/js-platform/node-webrtc verwenden [Beachten Sie, dass node-webrtc nicht gut als easyrtc dokumentiert ist]. Danke – BeingMIAkashs