2012-04-06 7 views
3

Ich habe ffmpeg Lib-Datei heruntergeladen und es für Armv7 erfüllt. Ich habe ffmpeg lib Dateien in meinem Projekt erfolgreich hinzugefügt. Ich bin in der Lage, Iphone Kamera Live-Streams mit AVFoundation zu bekommen.iPhone Kamera live dämpfen

Nun ist das Problem, wie werde ich iphone Kamera Streams Ausgang als ein Eingang von ffmpeg für die Dekodierung konvertieren? Überprüfen Sie meinen Code

- (void)captureOutput:(AVCaptureOutput *)captureOutput didOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer fromConnection:(AVCaptureConnection *)connection { 


CMBlockBufferRef bufferData = CMSampleBufferGetDataBuffer(sampleBuffer); 
size_t lengthAtOffset; 
size_t totalLength; char* data; 

if (CMBlockBufferGetDataPointer (buffer, 0, & lengthAtOffset, & totalLength, & Daten) = noErr!) { NSLog (@ "Fehler!"); } }

schlug mir bitte, welche Funktion von ffmpeg lib für die Decodierung verwendet wird, und wie ich setzte CMBlockBufferRef als Eingang dieses ??

Dank

Antwort

0

Sie OPenTok für Live-Video Straming

https://github.com/opentok/opentok-ios-sdk

+0

Sir sehen, dass die Frage ist pravi (nikhil Freund) http://stackoverflow.com/questions/11986313/http- verwenden können Live-Streaming-für-iPhone-und-warum-wir-verwenden-m3u8-Datei –

Verwandte Themen