В настоящее время я разрабатываю приложение для iOS, которое применяет CoreImage к каналу камеры, чтобы снимать фото и видео, и у меня возникла небольшая проблема.
До сих пор я использовал AVCaptureVideoDataOutput для получения образцов буферов и управления ими с помощью CoreImage, а затем отображал простой предварительный просмотр, а также использовал его для захвата фотографий и их сохранения.
Когда я пытался реализовать запись видео, записывая SampleBuffers в видео, которое я получил от AVCaptureVideoDataOutput , у него была очень низкая частота кадров (вероятно, из-за другой обработки изображений, которая была продолжается).
Мне было интересно, возможно ли, чтобы AVCaptureVideoDataOutput и AVCaptureMoveFileOutput выполнялись в одном и том же сеансе AVCaptureSession одновременно?
Я быстро попробовал и обнаружил, что когда я добавил дополнительный вывод, мой AVCaptureVideoDataOutput перестал получать информацию.
Если мне удастся заставить его работать, я надеюсь, это означает, что я могу просто использовать второй выход для записи видео с высокой частотой кадров и выполнять постобработку видео после того, как пользователь остановил запись.
Любая помощь будет принята с благодарностью.