Преобразование YUV-данных камеры в ARGB с помощью renderscript

Моя проблема: я настроил камеру на Android и получил данные предварительного просмотра, используя onPreviewFrame-прослушиватель, который передает мне массив байтов [], содержащий данные изображения в стандартном андроидном YUV-формате (устройство не поддержка формата R5G6B5). Каждый пиксель состоит из 12 бит, что делает вещь немного сложной. Теперь я хочу преобразовать YUV-данные в ARGB-данные, чтобы обрабатывать изображения с ним. Это необходимо сделать с помощью renderscript, чтобы поддерживать высокую производительность.

Моя идея состояла в том, чтобы передать два пикселя в один элемент (который будет 24 бит = 3 байта), а затем вернуть два пикселя ARGB. Проблема в том, что в Renderscript a u8_3 (трехмерный 8-битный вектор) сохраняется в 32 бит, что означает, что последние 8 бит не используются. Но при копировании данных изображения в распределение все 32 бита используются, поэтому последние 8 бит теряются. Даже если я использовал 32-битные входные данные, последние 8 бит бесполезны, потому что они всего 2/3 пикселя. При определении элемента, состоящего из 3-байтового массива, он фактически имеет реальный размер 3 байта. Но тогда метод Allocation.copyFrom() не заполняет in-Allocation данными, утверждая, что у него нет нужного типа данных, заполняемого байтом [].

Документация renderscript утверждает, что есть ScriptIntrinsicYuvToRGB, который должен делать именно это на уровне API 17. Но на самом деле класс не существует. Я загрузил API-уровень 17, хотя он, похоже, больше не загружается. Кто-нибудь есть информация об этом? Кто-нибудь когда-либо пробовал ScriptIntrinsic?

Итак, в заключение мой вопрос: как быстро преобразовать данные камеры в данные ARGB, аппаратно ускорить?

Как это сделать в Dalvik VM (нашел код где-то в сети, он работает):

@SuppressWarnings("unused")
private void decodeYUV420SP(int[] rgb, byte[] yuv420sp, int width, int height) {  
    final int frameSize = width * height;  
    for (int j = 0, yp = 0; j < height; j++) {
        int uvp = frameSize + (j >> 1) * width, u = 0, v = 0;  
        for (int i = 0; i < width; i++, yp++) {  
            int y = (0xff & ((int) yuv420sp[yp])) - 16;  
            if (y < 0)
                y = 0;  
            if ((i & 1) == 0) {  
                v = (0xff & yuv420sp[uvp++]) - 128;  
                u = (0xff & yuv420sp[uvp++]) - 128;  
            }  
            int y1192 = 1192 * y;  
            int r = (y1192 + 1634 * v);  
            int g = (y1192 - 833 * v - 400 * u);  
            int b = (y1192 + 2066 * u);  
            if (r < 0)
                r = 0;
            else if (r > 262143)
                r = 262143;  
            if (g < 0)
                g = 0;
            else if (g > 262143)
                g = 262143;  
            if (b < 0)
                b = 0;
            else if (b > 262143)  
                b = 262143;  
            rgb[yp] = 0xff000000 | ((r << 6) & 0xff0000) | ((g >> 2) & 0xff00) | ((b >> 10) & 0xff);  
        }
    }
}

Ответы

Ответ 1

Я уверен, что вы найдете интересное тестовое приложение LivePreview... это часть исходного кода Android в последнем желе Bean (MR1). Он реализует предварительный просмотр камеры и использует ScriptIntrinsicYuvToRgb для преобразования данных предварительного просмотра с помощью Renderscript. Вы можете просмотреть источник онлайн здесь:

LivePreview

Ответ 2

Мне не удалось запустить ScriptInstrinsicYuvToRgb, поэтому я решил написать свое собственное решение RS.

Здесь готов script (названный yuv.rs):

#pragma version(1) 
#pragma rs java_package_name(com.package.name)

rs_allocation gIn;

int width;
int height;
int frameSize;

void yuvToRgb(const uchar *v_in, uchar4 *v_out, const void *usrData, uint32_t x, uint32_t y) {

    uchar yp = rsGetElementAtYuv_uchar_Y(gIn, x, y) & 0xFF;

    int index = frameSize + (x & (~1)) + (( y>>1) * width );
    int v = (int)( rsGetElementAt_uchar(gIn, index) & 0xFF ) -128;
    int u = (int)( rsGetElementAt_uchar(gIn, index+1) & 0xFF ) -128;

    int r = (int) (1.164f * yp  + 1.596f * v );
    int g = (int) (1.164f * yp  - 0.813f * v  - 0.391f * u);
    int b = (int) (1.164f * yp  + 2.018f * u );

    r = r>255? 255 : r<0 ? 0 : r;
    g = g>255? 255 : g<0 ? 0 : g;
    b = b>255? 255 : b<0 ? 0 : b;

    uchar4 res4;
    res4.r = (uchar)r;
    res4.g = (uchar)g;
    res4.b = (uchar)b;
    res4.a = 0xFF;

    *v_out = res4;
}

Не забудьте установить формат предварительного просмотра камеры в NV21:

Parameters cameraParameters = camera.getParameters();
cameraParameters.setPreviewFormat(ImageFormat.NV21);
// Other camera init stuff: preview size, framerate, etc.
camera.setParameters(cameraParameters);

Инициализация выделений и script использование:

// Somewhere in initialization section 
// w and h are variables for selected camera preview size
rs = RenderScript.create(this); 

Type.Builder tbIn = new Type.Builder(rs, Element.U8(rs));
tbIn.setX(w);
tbIn.setY(h);
tbIn.setYuvFormat(ImageFormat.NV21);

Type.Builder tbOut = new Type.Builder(rs, Element.RGBA_8888(rs));
tbOut.setX(w); 
tbOut.setY(h);

inData = Allocation.createTyped(rs, tbIn.create(), Allocation.MipmapControl.MIPMAP_NONE,  Allocation.USAGE_SCRIPT & Allocation.USAGE_SHARED);
outData = Allocation.createTyped(rs, tbOut.create(), Allocation.MipmapControl.MIPMAP_NONE,  Allocation.USAGE_SCRIPT & Allocation.USAGE_SHARED);

outputBitmap = Bitmap.createBitmap(w, h, Bitmap.Config.ARGB_8888);


yuvScript = new ScriptC_yuv(rs); 
yuvScript.set_gIn(inData);
yuvScript.set_width(w);
yuvScript.set_height(h);
yuvScript.set_frameSize(previewSize);
//.....

Метод обратного вызова камеры:

public void onPreviewFrame(byte[] data, Camera camera) {
    // In your camera callback, data 
    inData.copyFrom(data);
    yuvScript.forEach_yuvToRgb(inData, outData);
    outData.copyTo(outputBitmap);
    // draw your bitmap where you want to 
    // .....
}