Ich möchte machen Sie eine eins zu viele Mikrofon Streaming-Implementierung. Wo ein Benutzer von seinem Mikrofon aufnimmt, und von dort können andere Leute ihn hören. Ich muss auch die Mikrofon Session aufnehmen.Eins zu viele Mikrofon-Streaming-Implementierung
Was wird am besten sein? Eine WebRTC Kommunikation zwischen Clients oder one-to-server-to-many Implementierung? Denken Sie daran, dass Tausende von Clients und ich weiß nicht, ob WebRTC es unterstützen kann.
Für eine Eins-zu-Server-to-many Implementierung im in einem node.js (oder JAVA) Server mit binären WebSockets denken, wo ser Server die Mikrofonbenutzerdaten erhalten speichert und dann in Echtzeit alle streamen Kunden, die zuhören. Wie würdest du diese Implementierung machen? Welche Werkzeuge würden Sie verwenden?
Danke!
Ich habe tatsächlich gebaut, was Sie vorschlagen. http://stackoverflow.com/a/40073233/362536 Es heißt der AudioPump Web Encoder, und ich benutze WebSocket, um die aufgenommenen Audio auf den Server zu bekommen. Es ist möglich, WebRTC zu verwenden, um den Medienstream zum Server zu bringen, aber es ist viel schwieriger zu machen. Lassen Sie mich wissen, wenn Sie diese Lösung lizenzieren möchten. Es basiert auf Node.js. Ich kann Ihnen weitere Informationen schicken, wenn Sie mir eine E-Mail schicken ... [email protected] – Brad
Werfen Sie einen Blick auf dieses Projekt: https://www.webrc-experiment.com/ Es hat ein Beispiel für die Übertragung von Audio und Video. –