Я работаю над большим количеством мини-проектов, которые позже будут включены в новый проект. По сути, это тестовый модуль.
Я создаю AVCaptureSession
, а затем создаю метод для OutputSampleBufferDelegate
. В этом методе я конвертирую sampleBuffer
в UIImage
и сохраняю UIImage
. Когда я запускаю приложение на своем iPhone 4, оно может сохранять только 2-3 изображения в секунду. Должен быть более эффективный способ сохранить изображение.
Может ли кто-нибудь помочь мне ускорить это?
Спасибо!
большая часть кода взята отсюда
- (void)captureOutput:(AVCaptureOutput *)captureOutput didOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer fromConnection:(AVCaptureConnection *)connection
{
UIImage *resultUIImage = [self imageFromSampleBuffer:sampleBuffer];
NSData *imageData = [NSData dataWithData:UIImagePNGRepresentation(resultUIImage)];
NSArray *paths = NSSearchPathForDirectoriesInDomains(NSDocumentDirectory, NSUserDomainMask, YES);
NSString *path = [paths objectAtIndex:0];
CMTime frameTime = CMSampleBufferGetPresentationTimeStamp(sampleBuffer);
NSString *filename = [NSString stringWithFormat:@"%f.png", CMTimeGetSeconds(frameTime)];
NSString *finalPath = [path stringByAppendingString:filename];
[imageData writeToFile:finalPath atomically:YES];
}
// Create a UIImage from sample buffer data
- (UIImage *)imageFromSampleBuffer:(CMSampleBufferRef)sampleBuffer
{
// Get a CMSampleBuffer's Core Video image buffer for the media data
CVImageBufferRef imageBuffer = CMSampleBufferGetImageBuffer(sampleBuffer);
// Lock the base address of the pixel buffer
CVPixelBufferLockBaseAddress(imageBuffer, 0);
// Get the number of bytes per row for the pixel buffer
void *baseAddress = CVPixelBufferGetBaseAddress(imageBuffer);
// Get the number of bytes per row for the pixel buffer
size_t bytesPerRow = CVPixelBufferGetBytesPerRow(imageBuffer);
// Get the pixel buffer width and height
size_t width = CVPixelBufferGetWidth(imageBuffer);
size_t height = CVPixelBufferGetHeight(imageBuffer);
// Create a device-dependent RGB color space
CGColorSpaceRef colorSpace = CGColorSpaceCreateDeviceRGB();
// Create a bitmap graphics context with the sample buffer data
CGContextRef context = CGBitmapContextCreate(baseAddress, width, height, 8, bytesPerRow, colorSpace, kCGBitmapByteOrder32Little | kCGImageAlphaPremultipliedFirst);
// Create a Quartz image from the pixel data in the bitmap graphics context
CGImageRef quartzImage = CGBitmapContextCreateImage(context);
// Unlock the pixel buffer
CVPixelBufferUnlockBaseAddress(imageBuffer,0);
// Free up the context and color space
CGContextRelease(context);
CGColorSpaceRelease(colorSpace);
// Create an image object from the Quartz image
UIImage *image = [UIImage imageWithCGImage:quartzImage];
// Release the Quartz image
CGImageRelease(quartzImage);
return image;
}