IOS CVImageBuffer искажен с AVCaptureSessionDataOutput с помощью AVCaptureSessionPresetPhoto
На высоком уровне я создал приложение, которое позволяет пользователю указывать свою камеру iPhone и просматривать видеокадры, обработанные визуальными эффектами. Кроме того, пользователь может нажать кнопку, чтобы снять фрейм-кадр текущего предварительного просмотра в виде фотографии с высоким разрешением, которая сохраняется в их библиотеке iPhone.
Для этого приложение следует этой процедуре:
1) Создайте AVCaptureSession
captureSession = [[AVCaptureSession alloc] init];
[captureSession setSessionPreset:AVCaptureSessionPreset640x480];
2) Подключите AVCaptureDeviceInput, используя обратную камеру.
videoInput = [[[AVCaptureDeviceInput alloc] initWithDevice:backFacingCamera error:&error] autorelease];
[captureSession addInput:videoInput];
3) Подключите AVCaptureStillImageOutput к сеансу, чтобы иметь возможность снимать неподвижные кадры при разрешении фотографий.
stillOutput = [[AVCaptureStillImageOutput alloc] init];
[stillOutput setOutputSettings:[NSDictionary
dictionaryWithObject:[NSNumber numberWithInt:kCVPixelFormatType_32BGRA]
forKey:(id)kCVPixelBufferPixelFormatTypeKey]];
[captureSession addOutput:stillOutput];
4) Подключите AVCaptureVideoDataOutput к сеансу, чтобы иметь возможность захватывать отдельные видеофрагменты (CVImageBuffers) с меньшим разрешением
videoOutput = [[AVCaptureVideoDataOutput alloc] init];
[videoOutput setVideoSettings:[NSDictionary dictionaryWithObject:[NSNumber numberWithInt:kCVPixelFormatType_32BGRA] forKey:(id)kCVPixelBufferPixelFormatTypeKey]];
[videoOutput setSampleBufferDelegate:self queue:dispatch_get_main_queue()];
[captureSession addOutput:videoOutput];
5) Когда видеофрагменты захватываются, метод делегата вызывается с каждым новым фреймом как CVImageBuffer:
- (void)captureOutput:(AVCaptureOutput *)captureOutput didOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer fromConnection:(AVCaptureConnection *)connection
{
CVImageBufferRef pixelBuffer = CMSampleBufferGetImageBuffer(sampleBuffer);
[self.delegate processNewCameraFrame:pixelBuffer];
}
6) Затем делегат обрабатывает/рисует их:
- (void)processNewCameraFrame:(CVImageBufferRef)cameraFrame {
CVPixelBufferLockBaseAddress(cameraFrame, 0);
int bufferHeight = CVPixelBufferGetHeight(cameraFrame);
int bufferWidth = CVPixelBufferGetWidth(cameraFrame);
glClear(GL_COLOR_BUFFER_BIT);
glGenTextures(1, &videoFrameTexture_);
glBindTexture(GL_TEXTURE_2D, videoFrameTexture_);
glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_MIN_FILTER, GL_LINEAR);
glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_MAG_FILTER, GL_LINEAR);
glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_WRAP_S, GL_CLAMP_TO_EDGE);
glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_WRAP_T, GL_CLAMP_TO_EDGE);
glTexImage2D(GL_TEXTURE_2D, 0, GL_RGBA, bufferWidth, bufferHeight, 0, GL_BGRA, GL_UNSIGNED_BYTE, CVPixelBufferGetBaseAddress(cameraFrame));
glBindBuffer(GL_ARRAY_BUFFER, [self vertexBuffer]);
glBindBuffer(GL_ELEMENT_ARRAY_BUFFER, [self indexBuffer]);
glDrawElements(GL_TRIANGLE_STRIP, 4, GL_UNSIGNED_SHORT, BUFFER_OFFSET(0));
glBindBuffer(GL_ARRAY_BUFFER, 0);
glBindBuffer(GL_ELEMENT_ARRAY_BUFFER, 0);
[[self context] presentRenderbuffer:GL_RENDERBUFFER];
glDeleteTextures(1, &videoFrameTexture_);
CVPixelBufferUnlockBaseAddress(cameraFrame, 0);
}
Это все работает и приводит к правильным результатам. Я вижу видео-просмотр 640x480, обработанных через OpenGL. Это выглядит так:
![640x480 Correct Preview]()
Однако, если я захвачу неподвижное изображение с этого сеанса, его разрешение также будет 640x480. Я хочу, чтобы это было высокое разрешение, поэтому на первом шаге я меняю пресетную строку на:
[captureSession setSessionPreset:AVCaptureSessionPresetPhoto];
Это правильно фиксирует неподвижные изображения с самым высоким разрешением для iPhone4 (2592x1936).
Однако предварительный просмотр видео (полученный делегатом в шагах 5 и 6) теперь выглядит следующим образом:
![Photo preview incorrect]()
Я подтвердил, что каждый пресет (высокий, средний, низкий, 640x480 и 1280x720) превью, как и предполагалось. Тем не менее, пресет фотографий, похоже, отправляет данные буфера в другом формате.
Я также подтвердил, что данные, отправляемые в буфер в предустановке Photo, фактически являются действительными данными изображения, беря буфер и создавая из него UIImage вместо отправки его в openGL:
CGColorSpaceRef colorSpace = CGColorSpaceCreateDeviceRGB();
CGContextRef context = CGBitmapContextCreate(CVPixelBufferGetBaseAddress(cameraFrame), bufferWidth, bufferHeight, 8, bytesPerRow, colorSpace, kCGBitmapByteOrder32Little | kCGImageAlphaPremultipliedFirst);
CGImageRef cgImage = CGBitmapContextCreateImage(context);
UIImage *anImage = [UIImage imageWithCGImage:cgImage];
Это показывает неискаженный видеокадр.
Я сделал кучу поиска и, похоже, не могу исправить это. Моя догадка заключается в том, что это проблема с форматом данных. То есть, я считаю, что буфер настроен правильно, но с форматом, который эта строка не понимает:
glTexImage2D(GL_TEXTURE_2D, 0, GL_RGBA, bufferWidth, bufferHeight, 0, GL_BGRA, GL_UNSIGNED_BYTE, CVPixelBufferGetBaseAddress(cameraFrame));
Моя догадка заключалась в том, что изменение внешнего формата с GL_BGRA на что-то другое поможет, но оно не... и с помощью различных средств похоже, что буфер фактически находится в GL_BGRA.
Кто-нибудь знает, что здесь происходит? Или у вас есть какие-то советы о том, как я могу отлаживать, почему это происходит? (Что супер странно, так это то, что это происходит на iphone4, но не на iPhone 3GS... оба работают с ios4.3)
Ответы
Ответ 1
Это было doozy.
Как отметил Lio Ben-Kereth, прокладка составляет 48, как вы можете видеть из отладчика
(gdb) po pixelBuffer
<CVPixelBuffer 0x2934d0 width=852 height=640 bytesPerRow=3456 pixelFormat=BGRA
# => 3456 - 852 * 4 = 48
OpenGL может компенсировать это, но OpenGL ES не может (подробнее здесь openGL SubTexturing)
Итак, вот как я это делаю в OpenGL ES:
(CVImageBufferRef)pixelBuffer // pixelBuffer containing the raw image data is passed in
/* ... */
glActiveTexture(GL_TEXTURE0);
glBindTexture(GL_TEXTURE_2D, videoFrameTexture_);
int frameWidth = CVPixelBufferGetWidth(pixelBuffer);
int frameHeight = CVPixelBufferGetHeight(pixelBuffer);
size_t bytesPerRow, extraBytes;
bytesPerRow = CVPixelBufferGetBytesPerRow(pixelBuffer);
extraBytes = bytesPerRow - frameWidth*4;
GLubyte *pixelBufferAddr = CVPixelBufferGetBaseAddress(pixelBuffer);
if ( [[captureSession sessionPreset] isEqualToString:@"AVCaptureSessionPresetPhoto"] )
{
glTexImage2D( GL_TEXTURE_2D, 0, GL_RGBA, frameWidth, frameHeight, 0, GL_BGRA, GL_UNSIGNED_BYTE, NULL );
for( int h = 0; h < frameHeight; h++ )
{
GLubyte *row = pixelBufferAddr + h * (frameWidth * 4 + extraBytes);
glTexSubImage2D( GL_TEXTURE_2D, 0, 0, h, frameWidth, 1, GL_BGRA, GL_UNSIGNED_BYTE, row );
}
}
else
{
glTexImage2D(GL_TEXTURE_2D, 0, GL_RGBA, frameWidth, frameHeight, 0, GL_BGRA, GL_UNSIGNED_BYTE, pixelBufferAddr);
}
Раньше я использовал AVCaptureSessionPresetMedium
и получал 30 кадров в секунду. В AVCaptureSessionPresetPhoto
я получаю 16 кадров в секунду на iPhone 4. Цикл для суб-текстуры, похоже, не влияет на частоту кадров.
Я использую iPhone 4 на iOS 5.
Ответ 2
Просто нарисуйте вот так.
size_t bytesPerRow = CVPixelBufferGetBytesPerRow(pixelBuffer);
int frameHeight = CVPixelBufferGetHeight(pixelBuffer);
GLubyte *pixelBufferAddr = CVPixelBufferGetBaseAddress(pixelBuffer);
glTexImage2D(GL_TEXTURE_2D, 0, GL_RGBA, (GLsizei)bytesPerRow / 4, (GLsizei)frameHeight, 0, GL_BGRA, GL_UNSIGNED_BYTE, pixelBufferAddr);
Ответ 3
Хорошие маты.
Но на самом деле прокладка больше, это:
bytesPerRow = 4 * bufferWidth + 48;
Он отлично работает на задней панели iphone 4 и решил проблему, о которой сообщают sotangochips.
Ответ 4
Dex, спасибо за отличный ответ. Чтобы сделать ваш код более общим, я бы заменил:
if ( [[captureSession sessionPreset] isEqualToString:@"AVCaptureSessionPresetPhoto"] )
с
if ( extraBytes > 0 )
Ответ 5
Я думаю, что нашел ваш ответ, и мне жаль, потому что это не хорошие новости.
Вы можете проверить эту ссылку: http://developer.apple.com/library/mac/#documentation/AudioVideo/Conceptual/AVFoundationPG/Articles/04_MediaCapture.html
Настройка сеанса
Символ: AVCaptureSessionPresetPhoto
Разрешение: Фото.
Комментарии: Полное разрешение фотографий. Это не поддерживается для вывода видео.
Ответ 6
sessionPresetPhoto
- это настройка для захвата фотографии с самым высоким качеством. Когда мы используем AVCaptureStillImageOutput
с предустановленной фотографией, кадр, захваченный из видеопотока, всегда имеет точно разрешение экрана iPad или iPhone. У меня была та же проблема с iPad Pro 12,9 дюйма с разрешением 2732 * 2048. Это означает, что кадр, который я захватил из видеопотока, составлял 2732 * 2048, но он всегда искажался и менялся. Я пробовал вышеупомянутые решения, но это не решило мою проблему. Наконец, я понял, что ширина рамки всегда должна быть делимой на 8, которая не является 2732. 2732/8 = 341,5. Так что я сделал, чтобы вычислить по модулю ширины и 8. Если modulo не равен нулю, я добавляю его в ширину. В этом случае 2732% 8 = 4, а затем я получаю 2732 + 4 = 2736. Таким образом, я установил эту ширину кадра в CVPixelBufferCreate
, чтобы инициализировать мой pixelBuffer (CVPixelBufferRef
).
Ответ 7
Буфер изображения, который вы, похоже, содержит некоторые дополнения в конце. Например.
bytesPerRow = 4 * bufferWidth + 12;
Это часто делается так, что каждая строка пикселей начинается с 16-байтового смещения.