Я Захват видео с использованием работы с кадрами AVFoundation. С помощью документации Apple http://developer.apple.com/library/ios/ # documentation / AudioVideo / Conceptual / AVFoundationPG / Articles / 03_MediaCapture.html% 23 // apple_ref / doc / uid / TP40010188-CH5-SW2
Теперь я сделал следующее
1. Создал videoCaptureDevice
2. Создайте AVCaptureDeviceInput
и установите videoCaptureDevice
3.
4.Created AVCaptureSession
- установить вход как AVCaptureDeviceInput и установить выход как AVCaptureVideoDataOutput
5. В методе делегирования AVCaptureVideoDataOutput
-(void)captureOutput:(AVCaptureOutput *)captureOutput didOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer fromConnection:(AVCaptureConnection *)connection
я получил CMSamplebuffer и преобразовал его в UIImage
[self.imageView performSelectorOnMainThread:@selector(setImage:) withObject:image waitUntilDone:YES];
и проверил его для печати с использованием UIImage
[self.imageView performSelectorOnMainThread:@selector(setImage:) withObject:image waitUntilDone:YES];
. хорошо подошли к этому ........
МОЯ ПРОБЛЕМА, Мне нужно отправлять видеокадры через UDP Socket. Хотя следующее - плохая идея, которую я пробовал, UIImage в NSData и Отправить через UDP Pocket. У меня такая задержка в обработке видео. В основном проблема из-за UIImage в NSDate
, поэтому, пожалуйста, дайте мне решение моей проблемы
1) Любой способ преобразовать CMSampleBUffer или CVImageBuffer в NSData ??
2) Как служба аудио очереди и очередь для видео для хранения UIImage и делать UIImage для NSDate
И отправка ???
, если я использую неправильный алгоритм. Пожалуйста, укажите мне направление записи
Заранее спасибо