2016-11-22 1 views
4

Ich bin kein aktueller mobiler Entwickler, also bitte entschuldigen Sie. Ich habe mit einem Freund gesprochen und bin neugierig. Ich habe Audio-Erfahrung, aber nicht moderne swift + ios Erfahrung.Erfassen von System- oder App-Audio mit AudioKit

Lassen Sie uns sagen, ich hatte eine Aussicht mit einem Youtube-Player eingebettet. Die schnellen Spieler, die ich gefunden habe (Pods usw.) scheinen nicht wie ein Audiokanal als Stream oder Objekt zu exponieren. Zum Beispiel:

// from the pod swift-audio-player 

// Import Swift module 
import YouTubePlayer 
@IBOutlet var videoPlayer: YouTubePlayerView! 
// init YouTubePlayerView w/ playerFrame rect (assume playerFrame declared) 
var videoPlayer = YouTubePlayerView(frame: playerFrame) 
// Load video from YouTube ID 
videoPlayer.loadVideoID("nfWlot6h_JM") 

Der Player verfügt über Funktionen zur Steuerung der Wiedergabe, aber nichts Low Level. Nehmen wir an, Sie könnten den MPEG-Stream durch eine andere Bibliothek bekommen und Sie hätten Zugriff auf den Audio-Stream mit mpegStream.audioChannels().

Wie können Sie dies mit AudioKit integrieren? Ich verstehe, wie man Knoten aus der Dokumentation mischt/aufnimmt, aber wo würde man den Stream des Videoplayers anschließen?

Würden Sie nach Dingen suchen, die mit AVFoundation kompatibel sind, und dann einen Sampler anschließen?

Meine Frage ist wirklich, was ist die Verkabelung zwischen einem Youtube-Player oder MPEG-Stream und AudioKit? Ich kann nicht herausfinden, was AudioKit will oder was eine realistische gemeinsame Schnittstelle wäre. Ich schätze, es hängt davon ab, wie der Youtube-Stream abgerufen wird, aber könntest du einen mpeg-Stream ohne diese High-Level-Player-Pods/Libraries erhalten? Dann würde ich einfach nach einer AVFoundation-Schnittstelle suchen (einen AVFoundation-Typ bekommen, irgendwie einen AVFoundation-Typ an AudioKit übergeben)?

Antwort

1

AudioKit unterstützt derzeit keine Streaming-Medien.

Verwandte Themen