Ich muss den webRTC "capture of medias" Part verwenden und den Video/Audio Stream an einen Server senden. Zuerst dachte ich über websockets nach, um diesen Stream zu senden, aber es sah kompliziert aus, ich fand nur einige Beispiele, die das Video in eine Leinwand zeichneten und das generierte Bild dank WebSockets schickten; schwer. Also denke ich, die beste Lösung ist, die RTCPeerConnection API zu verwenden, um eine 1: 1-Peer-Verbindung zu erstellen und dann den Rest dieser API zu verwenden, um den Stream zu übertragen. Ist das möglich und nicht dumm? Wenn es nicht ist, würde ich gerne wissen, ob es möglich ist, einen einfachen ICE-Server zu erstellen, um nur zwei Peers mit einer bekannten IP zu verbinden (oder gibt es eine Möglichkeit, diese ICE-Server zu vermeiden?)WebRTC, gefälschter ICE Server für 1: 1 (Client-Server) Verbindung
Vielen Dank für Ihre Antworten! :)
haben Sie sich MCU/SFU angesehen? – mido
Keine Notwendigkeit, in eine Leinwand zu zeichnen. Verwenden Sie MediaRecorder. Siehe [meine Antwort auf eine andere Frage] (http://stackoverflow.com/a/34997248/918910). – jib
Nun, ich habe mich wirklich darum gekümmert. Ich nehme an, dass ich aufgenommene Teile (als Binärdaten) senden kann, während ich Video/Audio einnehme? (Ich kann es gerade jetzt nicht testen) – Ernest