2017-12-26 4 views
-1

Ich versuche eine iOS-Anwendung zu erstellen, die Audiosignale direkt vom Eingang (oder Mikrofon) eines Geräts streamt. Was ich denke ist, dass ich den Audio-Puffer in jedem bestimmten Zeitraum an den Server senden muss, damit der Server es an einen anderen Client sendet, der möglicherweise zuhören möchte. Ich plane, WebSockets für die serverseitige Implementierung zu verwenden.Sende Audio-Puffer in Teilen an einen Server vom Mikrofon eines iOS-Geräts

Gibt es eine Möglichkeit, nur einen bestimmten Pufferstrom vom Eingang (Mikrofon) des iOS-Geräts zu holen und es an den Server zu senden, während der Benutzer ein anderes Bit spricht usw.? Ich denke, wenn ich eine AVAudioRecorder vielleicht mit AVAudioEngine starten und alle 1 Sekunde oder eine halbe Sekunde aufzeichnen könnte, aber ich denke, dass das zu viel Verzögerung und möglicherweise verlorenen Streams im Übergangsprozess erzeugen würde.

Gibt es einen besseren Weg, dies zu erreichen? Ich bin wirklich daran interessiert, die dahinterstehende Wissenschaft zu verstehen. Wenn dies nicht der beste Ansatz ist, sagen Sie mir bitte, welches das ist und vielleicht eine Grundidee für die Implementierung oder etwas, das mich in die richtige Richtung weisen könnte.

Antwort

0

Ich fand die Antwort auf meine eigene Frage !! Die Antwort liegt im AVFoundation Framework, speziell AVCaptureAudioDataOutput und seinem Delegaten, der Ihnen einen Puffer senden wird, sobald die Eingabequelle ihn erfasst.

Verwandte Themen