Ich arbeite an einer Live-App. Ich muss Filter in Videopuffer hinzufügen. Dann habe ich GPUImage Framework und schreibe einen Filter. Es sieht gut aus, aber der Puffer ohne Filterwirkung in der 'willOutputSampleBuffer:' Funktion.iOS GPUImage Filter können nicht in Video-Puffer mischen
Hier sind einige Schlüsselcode:
self.videoCamera = [[GPUImageVideoCamera alloc] initWithSessionPreset:self.sessionPreset cameraPosition:AVCaptureDevicePositionFront];
self.videoCamera.delegate = self;
self.videoCamera.horizontallyMirrorFrontFacingCamera = YES;
self.filterView = [[GPUImageView alloc] init];
GPUImageBeautifyFilter *beautifyFilter = [[GPUImageBeautifyFilter alloc] init];
[self.videoCamera addTarget:beautifyFilter];
[beautifyFilter addTarget:self.filterView];
dispatch_async(dispatch_get_main_queue(), ^{
[self.view insertSubview:self.filterView atIndex:1];
[self.filterView mas_makeConstraints:^(MASConstraintMaker *make) {
make.edges.equalTo(self.view);
}];
[self.videoCamera startCameraCapture];
});
Gibt es eine Detail, das ich ignoriert? Vielen Dank!!!