2015-11-18 8 views
5

Ich versuche, eine AVCaptureSession zu nehmen und zu mp4 zu kodieren. Es scheint, als sollte dies einfach sein, und ich versuche, einen einzigen 960x540 Video-Stream zu kodieren; Ich mache mir keine Sorgen über Audio für den Zweck dieses Problems.AVAssetWriterInput - schwarzer Bildschirm, 46 Stunden lang

Wenn ich den folgenden Code ausführen und out2.mp4 aus dem Dokumenten-Container mit Xcode, bekomme ich einen schwarzen Bildschirm in Quicktime und die Dauer beträgt 46 Stunden lang. Zumindest sieht die Auflösung richtig aus. Hier Ausgabe von ffmpeg -i out2.mp4

Input #0, mov,mp4,m4a,3gp,3g2,mj2, from 'out2.mp4': 
    Metadata: 
    major_brand  : mp42 
    minor_version : 1 
    compatible_brands: mp41mp42isom 
    creation_time : 2015-11-18 01:25:55 
    Duration: 46:43:04.21, start: 168178.671667, bitrate: 0 kb/s 
    Stream #0:0(und): Video: h264 (High) (avc1/0x31637661), yuv420p(tv, smpte170m/bt709/bt709), 960x540, 1860 kb/s, 27.65 fps, 29.97 tbr, 600 tbn, 1200 tbc (default) 
    Metadata: 
     creation_time : 2015-11-18 01:25:55 
     handler_name : Core Media Video 

Warum kann ich nicht anhängen Abtastpuffern zum AVAssetWriterInput in diesem Szenario?

var videoInput: AVAssetWriterInput? 
var assetWriter: AVAssetWriter? 

override func viewDidLoad() { 
    super.viewDidLoad() 
    self.startStream() 
    NSTimer.scheduledTimerWithTimeInterval(5, target: self, selector: "swapSegment", userInfo: nil, repeats: false) 
} 

func swapSegment() { 
    assetWriter?.finishWritingWithCompletionHandler(){ 
     print("File written") 
    } 
    videoInput = nil 
} 

func pathForOutput() -> String { 
    let urls = NSFileManager.defaultManager().URLsForDirectory(.DocumentDirectory, inDomains: .UserDomainMask) 
    if let documentDirectory: NSURL = urls.first { 
     let fileUrl = documentDirectory.URLByAppendingPathComponent("out1.mp4") 
     return fileUrl.path! 
    } 
    return "" 
} 

func startStream() { 
    assetWriter = try! AVAssetWriter(URL: NSURL(fileURLWithPath: self.pathForOutput()), fileType: AVFileTypeMPEG4) 

    let videoSettings: [String: AnyObject] = [AVVideoCodecKey: AVVideoCodecH264, AVVideoWidthKey: 960, AVVideoHeightKey: 540] 
    videoInput = AVAssetWriterInput(mediaType: AVMediaTypeVideo, outputSettings: videoSettings) 
    videoInput!.expectsMediaDataInRealTime = true 
    assetWriter?.addInput(videoInput!) 
    assetWriter!.startWriting() 
    assetWriter!.startSessionAtSourceTime(kCMTimeZero) 

    let videoHelper = VideoHelper() 
    videoHelper.delegate = self 
    videoHelper.startSession() 
} 

func captureOutput(captureOutput: AVCaptureOutput!, didOutputSampleBuffer sampleBuffer: CMSampleBufferRef, fromConnection connection: AVCaptureConnection!) { 
    if let videoOutput = captureOutput as? AVCaptureVideoDataOutput { 
     videoInput?.appendSampleBuffer(sampleBuffer) 
    } 
} 

Antwort

4

Vielleicht sind Ihre Zeiten zu Ihrer sourceTime nicht relativ (kCMTimeZero). Sie können den ersten Pufferpräsentationszeitstempel als Quellzeitpunkt verwenden.

p.s. vielleicht 46 Stunden ist ungefähr Ihr Gerät Verfügbarkeit

+0

Wie würde ich das tun? –

+0

Auch wenn mit if '! SessionStarted { sessionStarted = true AssetWriter! .StartSessionAtSourceTime (CMSampleBufferGetPresentationTimeStamp (BeispielBuffer)) }', bekomme ich eine Dauer von 46 Stunden. –

+0

Macht nichts, es funktioniert! Stellen Sie sicher, dass Sie die Datei, in die Sie schreiben, löschen, bevor Sie versuchen, darauf zu schreiben. –

Verwandte Themen