Wir haben eine Composite verwendet, um eine Audiobrücke mit Hubports zu erstellen. Wir haben gesehen, dass, wenn das Mischen in dem Verbund auftritt, wenn zwei Personen gleichzeitig sprechen (jeweils ein WebRTCEndPoint), die erste Person gehört wird und die andere Stimme unterdrückt wird.Composite: Wie man den aktiven Endpunkt ermittelt
Wie ermitteln wir den Endpunkt, der derzeit beim Mischen verwendet wird (d. H. Wer spricht)? Gibt es Ereignisse, die wir jederzeit abonnieren oder abfragen können, um den aktiven Endpunkt zu ermitteln?
Hallo, danke für den Kommentar. Wir glauben, dass die RTCPeerConnection Audio sendet, aber der Composite Mixer wählt nur die erste, wenn mehrere Personen gleichzeitig sprechen. chrome: // webrtc-internals/zeigt an, dass Audio gesendet und empfangen wird. Was ist das erwartete Verhalten, wenn mehrere Personen gleichzeitig sprechen? Wir sehen zuerst, dass man spricht, aber ist das nicht das, was passieren soll? Wenn nicht, wie vermischt es alle Stimmen? Wie auch immer, gibt es eine Möglichkeit zu sagen, wer gerade durch einige Ereignisse spricht? –