2017-03-07 4 views
0

Wir haben eine Composite verwendet, um eine Audiobrücke mit Hubports zu erstellen. Wir haben gesehen, dass, wenn das Mischen in dem Verbund auftritt, wenn zwei Personen gleichzeitig sprechen (jeweils ein WebRTCEndPoint), die erste Person gehört wird und die andere Stimme unterdrückt wird.Composite: Wie man den aktiven Endpunkt ermittelt

Wie ermitteln wir den Endpunkt, der derzeit beim Mischen verwendet wird (d. H. Wer spricht)? Gibt es Ereignisse, die wir jederzeit abonnieren oder abfragen können, um den aktiven Endpunkt zu ermitteln?

Antwort

0

Der Composite-Mixer nimmt alle Streams (Audio und Video) an den verschiedenen Eingängen auf und führt sie zusammen. Was du beschreibst ist vermutlich auf die RTCPeerConnection im Browser nicht sendenden Medien zurückzuführen. Dieses Verhalten ist das gleiche, auch wenn Sie den Composite-Mixer nicht verwenden, und wir können nichts dagegen tun.

+0

Hallo, danke für den Kommentar. Wir glauben, dass die RTCPeerConnection Audio sendet, aber der Composite Mixer wählt nur die erste, wenn mehrere Personen gleichzeitig sprechen. chrome: // webrtc-internals/zeigt an, dass Audio gesendet und empfangen wird. Was ist das erwartete Verhalten, wenn mehrere Personen gleichzeitig sprechen? Wir sehen zuerst, dass man spricht, aber ist das nicht das, was passieren soll? Wenn nicht, wie vermischt es alle Stimmen? Wie auch immer, gibt es eine Möglichkeit zu sagen, wer gerade durch einige Ereignisse spricht? –

Verwandte Themen