如何转换 yuv420sp的 byte[]数据成opencv 的Mat类型? 10C

如何转换 yuv420sp的 byte[]数据成opencv 的Mat类型?
在android相机中获取数据,想直接转换成mat类型,使用的opencv-android

6个回答

转换 yuv420sp的 byte[]数据成opencv 的Mat类型?
在android相机中获取数据,想直接转换成mat类型,使用的opencv-android

//YUV420SP转BGR
JNIEXPORT int JNICALL Java_com_facedetect_nativecaller_FaceNative_readYUV420SP(JNIEnv *env, jclass clz, jbyteArray yuv,jint len,jint height,jint width)
{

jbyte * pBuf = (jbyte*)env->GetByteArrayElements(yuv, 0);

Mat image(height + height/2,width,CV_8UC1,(unsigned char *)pBuf);
Mat mBgr;
cvtColor(image, mBgr, CV_YUV2BGR_NV21);
imwrite("/mnt/sdcard/readYuv.jpg",mBgr);

env->ReleaseByteArrayElements(yuv, pBuf, 0);   



return 0;

}
//上篇中,Bitmap转BGR
JNIEXPORT int JNICALL Java_com_facedetect_nativecaller_FaceNative_readBitmap(JNIEnv *env, jclass clz, jobject bitmapcolor,jint len,jint height,jint width)
{

    AndroidBitmapInfo  infocolor;
void*              pixelscolor;
int                ret;

if ((ret = AndroidBitmap_getInfo(env, bitmapcolor, &infocolor)) < 0) {
    LOGE("AndroidBitmap_getInfo() failed ! error=%d", ret);
    return -1;
}

LOGI("color image :: width is %d; height is %d; stride is %d; format is %d;flags is %d",
        infocolor.width,infocolor.height,infocolor.stride,infocolor.format,infocolor.flags);
if (infocolor.format != ANDROID_BITMAP_FORMAT_RGBA_8888) {
    LOGE("Bitmap format is not RGBA_8888 !");
    return -1;
}


if ((ret = AndroidBitmap_lockPixels(env, bitmapcolor, &pixelscolor)) < 0) {
    LOGE("AndroidBitmap_lockPixels() failed ! error=%d", ret);
}



Mat image(infocolor.height,infocolor.width,CV_8UC4,(char*)pixelscolor);

Mat bgr;


//转换成BGR
cvtColor(image,bgr,CV_RGBA2BGR);
imwrite("/mnt/sdcard/readBitmap.jpg",bgr);
//转换成GRAY

// cvtColor(bgr,gray,CV_BGR2GRAY);
// imwrite("/mnt/sdcard/gray.jpg",gray);

AndroidBitmap_unlockPixels(env, bitmapcolor);


return 0;

}

qq_32182845
LinWill_ZXH 想在java层直接转啊,这个我都看了一万遍了。。。
2 年多之前 回复

转换 yuv420sp的 byte[]数据成opencv 的Mat类型?
在android相机中获取数据,想直接转换成mat类型,使用的opencv-android

一、Mat类型:矩阵类型,Matrix。
  在openCV中,Mat是一个多维的密集数据数组。可以用来处理向量和矩阵、图像、直方图等等常见的多维数据。
  Mat有3个重要的方法:
  1、Mat mat = imread(const String* filename); 读取图像
  2、imshow(const string frameName, InputArray mat); 显示图像
  3、imwrite (const string& filename, InputArray img); 储存图像
  Mat类型较CvMat与IplImage类型来说,有更强的矩阵运算能力,支持常见的矩阵运算。在计算密集型的应用当中,将CvMat与IplImage类型转化为Mat类型将大大减少计算时间花费。
  A.Mat -> IplImage
  同样只是创建图像头,而没有复制数据。
  例: // 假设Mat类型的imgMat图像数据存在
  IplImage pImg= IplImage(imgMat);
  B.Mat -> CvMat
  与IplImage的转换类似,不复制数据,只创建矩阵头。
  例: // 假设Mat类型的imgMat图像数据存在
  CvMat cvMat = imgMat;
  
  二、CvMat类型与IplImage类型:“图像”类型
  在openCV中,Mat类型与CvMat和IplImage类型都可以代表和显示图像,但是,Mat类型侧重于计算,数学性较高,openCV对Mat类型的计算也进行了优化。而CvMat和IplImage类型更侧重于“图像”,openCV对其中的图像操作(缩放、单通道提取、图像阈值操作等)进行了优化。
  补充:IplImage由CvMat派生,而CvMat由CvArr派生即CvArr -> CvMat -> IplImage
  CvArr用作函数的参数,无论传入的是CvMat或IplImage,内部都是按CvMat处理。
  1.CvMat
  A.CvMat-> IplImage
  IplImage* img = cvCreateImage(cvGetSize(mat),8,1);
cvGetImage(matI,img);
  cvSaveImage("rice1.bmp",img);
  B.CvMat->Mat
  与IplImage的转换类似,可以选择是否复制数据。
  Mat::Mat(const CvMat* m, bool copyData=false);
  在openCV中,没有向量(vector)的数据结构。任何时候,但我们要表示向量时,用矩阵数据表示即可。
  但是,CvMat类型与我们在线性代数课程上学的向量概念相比,更抽象,比如CvMat的元素数据类型并不仅限于基础数据类型,比如,下面创建一个二维数据矩阵:
  CvMat* cvCreatMat(int rows ,int cols , int type);
  这里的type可以是任意的预定义数据类型,比如RGB或者别的多通道数据。这样我们便可以在一个CvMat矩阵上表示丰富多彩的图像了。
  
  2.IplImage
  在类型关系上,我们可以说IplImage类型继承自CvMat类型,当然还包括其他的变量将之解析成图像数据。
  IplImage类型较之CvMat多了很多参数,比如depth和nChannels。在普通的矩阵类型当中,通常深度和通道数被同时表示,如用32位表示RGB+Alpha.但是,在图像处理中,我们往往将深度与通道数分开处理,这样做是OpenCV对图像表示的一种优化方案。
  IplImage的对图像的另一种优化是变量origin----原点。在计算机视觉处理上,一个重要的不便是对原点的定义不清楚,图像来源,编码格式,甚至操作系统都会对原地的选取产生影响。为了弥补这一点,openCV允许用户定义自己的原点设置。取值0表示原点位于图片左上角,1表示左下角。
  dataOrder参数定义数据的格式。有IPL_DATA_ORDER_PIXEL和IPL_DATA_ORDER_PLANE两种取值,前者便是对于像素,不同的通道的数据交叉排列,后者表示所有通道按顺序平行排列。
  IplImage类型的所有额外变量都是对“图像”的表示与计算能力的优化。
  A.IplImage -> Mat
  IplImage* pImg = cvLoadImage("lena.jpg");
Mat img(pImg,0); // 0是不复制影像,也就是pImg与img的data共用同个记忆体位置,header各自有
B.IplImage -> CvMat
  法1:CvMat mathdr, mat = cvGetMat( img, &mathdr );
  法2:CvMat *mat = cvCreateMat( img->height, img->width, CV_64FC3 );
cvConvert( img, mat );
  C.IplImage
-> BYTE*
  BYTE* data= img->imageData;
  
  CvMat和IplImage创建时的一个小区别:
  1、建立矩阵时,第一个参数为行数,第二个参数为列数。
  CvMat* cvCreateMat( int rows, int cols, int type );
  2、建立图像时,CvSize第一个参数为宽度,即列数;第二个参数为高度,即行数。这 个和CvMat矩阵正好相反。
  IplImage* cvCreateImage(CvSize size, int depth, int channels );
  CvSize cvSize( int width, int height );
  
  IplImage内部buffer每行是按4字节对齐的,CvMat没有这个限制
  
  补充:
  A.BYTE*-> IplImage*
  img= cvCreateImageHeader(cvSize(width,height),depth,channels);
  cvSetData(img,data,step);
  //首先由cvCreateImageHeader()创建IplImage图像头,制定图像的尺寸,深度和通道数;
  //然后由cvSetData()根据BYTE*图像数据指针设置IplImage图像头的数据数据,
  //其中step指定该IplImage图像每行占的字节数,对于1通道的IPL_DEPTH_8U图像,step可以等于width。

IplImage* YUV420_To_IplImage_Opencv(unsigned char* pYUV420, int width, int height)
{
if (!pYUV420)
{
return NULL;
}

IplImage *yuvimage,*rgbimg,*yimg,*uimg,*vimg,*uuimg,*vvimg;

int nWidth = width;
int nHeight = height;
rgbimg = cvCreateImage(cvSize(nWidth, nHeight),IPL_DEPTH_8U,3);
yuvimage = cvCreateImage(cvSize(nWidth, nHeight),IPL_DEPTH_8U,3);

yimg = cvCreateImageHeader(cvSize(nWidth, nHeight),IPL_DEPTH_8U,1);
uimg = cvCreateImageHeader(cvSize(nWidth/2, nHeight/2),IPL_DEPTH_8U,1);
vimg = cvCreateImageHeader(cvSize(nWidth/2, nHeight/2),IPL_DEPTH_8U,1);

uuimg = cvCreateImage(cvSize(nWidth, nHeight),IPL_DEPTH_8U,1);
vvimg = cvCreateImage(cvSize(nWidth, nHeight),IPL_DEPTH_8U,1);

cvSetData(yimg,pYUV420, nWidth);
cvSetData(uimg,pYUV420+nWidth*nHeight, nWidth/2);
cvSetData(vimg,pYUV420+long(nWidth*nHeight*1.25), nWidth/2);
cvResize(uimg,uuimg,CV_INTER_LINEAR);
cvResize(vimg,vvimg,CV_INTER_LINEAR);

cvMerge(yimg,uuimg,vvimg,NULL,yuvimage);
cvCvtColor(yuvimage,rgbimg,CV_YCrCb2RGB);

cvReleaseImage(&uuimg);
cvReleaseImage(&vvimg);
cvReleaseImageHeader(&yimg);
cvReleaseImageHeader(&uimg);
cvReleaseImageHeader(&vimg);

cvReleaseImage(&yuvimage);

if (!rgbimg)
{
    return NULL;
}

return rgbimg;

}

 public Bitmap rawByteArray2RGBABitmap2(byte[] data, int width, int height) {
        byte[] rotateData = rotateYUV420Degree90(data, width, height);
        int w = height;
        int h = width;
        int frameSize = w * h;
        int[] rgba = new int[frameSize];

        for (int i = 0; i < h; i++)
            for (int j = 0; j < w; j++) {
                int y = (0xff & ((int) rotateData[i * w + j]));
                int u = (0xff & ((int) rotateData[frameSize + (i >> 1) * w + (j & ~1) + 0]));
                int v = (0xff & ((int) rotateData[frameSize + (i >> 1) * w + (j & ~1) + 1]));
                y = y < 16 ? 16 : y;

                int r = Math.round(1.164f * (y - 16) + 1.596f * (v - 128));
                int g = Math.round(1.164f * (y - 16) - 0.813f * (v - 128) - 0.391f * (u - 128));
                int b = Math.round(1.164f * (y - 16) + 2.018f * (u - 128));

                r = r < 0 ? 0 : (r > 255 ? 255 : r);
                g = g < 0 ? 0 : (g > 255 ? 255 : g);
                b = b < 0 ? 0 : (b > 255 ? 255 : b);

                rgba[i * w + j] = 0xff000000 + (b << 16) + (g << 8) + r;
            }

        Bitmap bmp = Bitmap.createBitmap(w, h, Bitmap.Config.ARGB_8888);
        bmp.setPixels(rgba, 0, w, 0, 0, w, h);

        Bitmap rectBitmap = Bitmap.createBitmap(bmp, ByteDataClass.rectX, ByteDataClass.rectY,
                ByteDataClass.rectWidth, ByteDataClass.rectHeight);
        Bitmap bit = Bitmap.createScaledBitmap(rectBitmap, rectBitmap.getWidth() / 2, rectBitmap.getHeight() / 2, true);

        return bit;
    }

    private byte[] rotateYUV420Degree90(byte[] data, int imageWidth, int imageHeight) {
        byte[] yuv = new byte[imageWidth * imageHeight * 3 / 2];
        // Rotate the Y luma
        int i = 0;
        for (int x = 0; x < imageWidth; x++) {
            for (int y = imageHeight - 1; y >= 0; y--) {
                yuv[i] = data[y * imageWidth + x];
                i++;
            }
        }
        // Rotate the U and V color components
        i = imageWidth * imageHeight * 3 / 2 - 1;
        for (int x = imageWidth - 1; x > 0; x = x - 2) {
            for (int y = 0; y < imageHeight / 2; y++) {
                yuv[i] = data[(imageWidth * imageHeight) + (y * imageWidth) + x];
                i--;
                yuv[i] = data[(imageWidth * imageHeight) + (y * imageWidth) + (x - 1)];
                i--;
            }
        }
        return yuv;
    }

最后把rawByteArray2RGBABitmap2这个函数中得到的bitmap进行一下处理就变成mat了
Mat mbgr = new Mat();
Utils.bitmapToMat(img,mbgr);

我是这样做的,不过存在失真,不知道楼主有没有更好的方法,指点一二 谢谢

Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
BYTE*图片如何转化成Mat类型,供opencv读取

我将一个base64的图片解码后得到一个BYTE* outBuffer,如何将BYTE* outBuffer转换为Mat类型,能够使opencv读取并展示。

bitmap转YUV420之后的图片和原图有色差

转换算法如下 void encodeYUV420SP(byte[] yuv420sp, int[] argb, int width, int height) { final int frameSize = width * height; int yIndex = 0; int uvIndex = frameSize; int a, R, G, B, Y, U, V; int index = 0; for (int j = 0; j < height; j++) { for (int i = 0; i < width; i++) { R = (argb[index] & 0xff0000) >> 16; G = (argb[index] & 0xff00) >> 8; B = (argb[index] & 0xff) >> 0; // well known RGB to YUV algorithm Y = ((66 * R + 129 * G + 25 * B + 128) >> 8) + 16; U = ((-38 * R - 74 * G + 112 * B + 128) >> 8) + 128; V = ((112 * R - 94 * G - 18 * B + 128) >> 8) + 128; // NV21 has a plane of Y and interleaved planes of VU each sampled by a factor of 2 // meaning for every 4 Y pixels there are 1 V and 1 U. Note the sampling is every other // pixel AND every other scanline. yuv420sp[yIndex++] = (byte) ((Y < 0) ? 0 : ((Y > 255) ? 255 : Y)); if (j % 2 == 0 && index % 2 == 0) { yuv420sp[uvIndex++] = (byte) ((V < 0) ? 0 : ((V > 255) ? 255 : V)); yuv420sp[uvIndex++] = (byte) ((U < 0) ? 0 : ((U > 255) ? 255 : U)); } index++; } } }

opencv数据流转化成mat

http://www.opencv.org.cn/forum.php?mod=viewthread&tid=258341&extra=

请问如何用c语言从jpg图片读取出yuv420sp nv21格式的信息(jpg转nv21)

请问如何用c语言从jpg图片读取出yuv420sp nv21格式的信息(jpg转nv21),尽量不依赖别的库,或者使用libjpeg库

关于yuv420数据读取的问题

目前,y数据可以成功读取出来,就是uv数据出问题。出现的图片有些纵向压缩一半,不知道怎么回事,我调试代码,感觉没有错哈!代码如下: ``` pdata=ive_420_img->pu8VirAddr[1]; qdata=ive_444_img->pu8VirAddr[1]; for(HI_U16 i=0;i<ive_420_img->u16Height;i++) { for(HI_U16 j=0;j<ive_420_img->u16Stride[0];j++) { y_index=i*ive_420_img->u16Stride[0]+j; uv_index=(i>>1)*(ive_420_img->u16Stride[0]>>1)+(j>>1); qdata[y_index]=pdata[uv_index]; } } ``` 上面代码的意思是,将YUV420转化为YUV444,其中pdata直接指向的是420的U数据(源数据),qdata指向的是444的U数据(目的数据)。我用opencv显示U分量数据,结果见下: (对不起图像传不上去:纵向压缩:正确转化后的坐标为(x,y),但是目前却显示在了(x,y/2)的位置,图像的分辨率不变,其余部分是以灰色填充的。大家帮忙分析一下什么问题?

如何在windows下得到YUV摄像头原始的数据?

因为我想要快速地从我的开发板传数据到电脑,因此我尝试使用USB的视频类模式来传输。 在Linux主机上,我用python的一个库pygame成功地获取到了YUV摄像头原始的数据, 但是在windows下却遇到了问题。 下面是我做过的事: 1.将我的开发板设置成USB摄像头,然后像发送图片一样发送自定义的数据。 if(connected) { // Send 614400 byte of mydata uvcdSendImage( (UINT32)mydata, 614400, 0); // Wait to end while(!uvcdIsReady()); } 2.在Linux主机上,我用python的库pygame连接USB摄像头,用下面的代码成功获取数据。 但是Window下的pygame没有 “get_raw()”这个函数。所以我没办法得到摄像头的原始数据。 pygame.init() pygame.camera.init() cameras = pygame.camera.list_cameras() cam = pygame.camera.Camera(cameras[0],(WIDTH,HEIGHT),"YUV") cam.start() while receive_size > UVC_SIZE_QQVGA: raw_data = raw_data + cam.get_raw() receive_size = receive_size - UVC_SIZE_QQVGA raw_data = raw_data + cam.get_raw() cam.stop() 3.然后我尝试在windows下使用 OpenCV(python和C++都尝试过)来获取数据, 但是opencv得到的数据 是转换后的BGR格式的数据,这也不是我想要的。 4.最后我使用windows下另外一个操作摄像头的python库VideoCapture(http://videocapture.sourceforge.net/)。 库里面有个函数叫 "getBuffer()",用这个函数,我好像可以得到YUV摄像头的原始数据,我的意思是开发板发送从摄像头获取到的 数据时,电脑端能够收到数据(我并不知道这是原始的数据还是转化后的数据)。但是当我传输我自定义的数据时(发送的数据和一张图的大小是一样的), 电脑端就不能够得到数据了。 另外我发现了一个现象,当我在开发板上发送自定义的数据时,我打开windows自带的摄像头采集软件Ecap.exe,最开始显示窗口什么也没有。 但当我点击了“录像”按钮,显示就有反应了,我知道这个时候开发板上的数据传上电脑了。 网上搜索了一大圈,也没有找到答案。我最终的目的是利用USB快速传输任意的数据,然后电脑端能够接收。串口慢了,USB的HID模式也不够快。希望可以得到大家的帮助。谢谢。

Android视频录制怎样把录制的YUV420sp格式的原始视频保存下来?

最近在研究android的camera,通过使用mediarecorder已经实现了录制视频。目前想把录制的视频不通过自带的编码器进行编码,就是直接把录制时的视频数据保存 下来。从网上找的资料,知道可以使用setPreviewCallback的onPreviewFrame[]接口保存实时视频的每一帧,但是网上可行的代码不多,很多是转到RGB格式,或者保存为Bitmap的,都不太符合要求。有没有大神指导下,怎样解决这个问题,困扰好久了,头疼ing。

海康摄像头SDK实现YUV到RGB的转换实现基于OpenCV的实现

海康SDK的回调格式是YUV 我需要OpenCV转到RGB可用于解析二维码

opencv cvcvtcolor函数 将RGB转为YUV

![YUV](https://img-ask.csdn.net/upload/201504/13/1428924331_530409.png) ![RGB](https://img-ask.csdn.net/upload/201504/13/1428924318_594405.png) 转换后图片怎么变成这样了

用libjpeg-turbo将jpeg图像转为YUV格式

新新手一枚,用libjpeg-turbo将jpeg图像转为YUV格式,运行jpeg_create_decompress时返回值为1并跳出,求问大佬们怎么解决

安卓手机实时视频传输

我要写一篇论文,不知道思路对不对,麻烦各位牛人给看看。 我是要做一个APP,我的思路是通过安卓自带摄像头采集视频并预览,回调函数获取实时视频帧数据,通过wifi环境下的Socket UDP传输采集到的原始YUV420sp数据到另一台手机上去,另一台手机上将获得的YUV420sp数据转换成RGB格式的,然后用SurfaceView控件显示出来。 就整个思路有没有逻辑问题?有没有技术难题?比如,YUV能通过socket传输吗?YUV转RGB后,SurfaceView能显示出来吗? 这对我很重要。希望大家给个答案。谢谢了。跪谢。

rgb转byte数组应该怎么处理

我在看YUV420SP转RGB的时候有如下一段java代码 if (r < 0) r = 0; else if (r > 262143) r = 262143; if (g < 0) g = 0; else if (g > 262143) g = 262143; if (b < 0) b = 0; else if (b > 262143) b = 262143; rgbBuf[yp * 3] = (byte)(r >> 10); rgbBuf[yp * 3 + 1] = (byte)(g >> 10); rgbBuf[yp * 3 + 2] = (byte)(b >> 10); 将rgb存放到一个byte[]数组中,但是这样转换的颜色有问题,人物是蓝色的,我从别的地方也看到相关颜色转换算法 int rgbTmp = 0xff000000 | ((r << 6) & 0xff0000) | ((g >> 2) & 0xff00) | ((b >> 10) & 0xff); 第二种转换换后的是int型数据,但是我需要的是3个自己的byte数组,而且好像转换算法也不同,不知道那种是正确的

Android Camera中的onPreviewFrame里的byte[] data的预处理

是这样的,我正在做Android视频这块,因为我要实时采集视频,所以会调用到Android的Camera的onPreviewFrame(byte[] data, Camera camera),此时我手机的分辨率大概是1216x912,我会将data先转成yuv420p格式的,因为录出来的是yuv420sp,转完之后,先贴下代码: @Override public void onPreviewFrame(byte[] data, Camera camera) { int width = camera.getParameters().getPreviewSize().width; int height = camera.getParameters().getPreviewSize().height; int length = width * height * 3 / 2; byte[] dataYUV420P = new byte[width * height * 3 / 2]; // 每一帧的大小 int framesize = width * height; int i = 0, j = 0; // 这块没问题--Y for (i = 0; i < framesize; i++) { dataYUV420P[i] = data[i]; } // U i = 0; for (j = 0; j < framesize/2; j+=2) { dataYUV420P[i + framesize*5/4] = data[j+framesize]; i++; } i = 0; for (j = 1; j < framesize/2;j+=2) { dataYUV420P[i+framesize] = data[j+framesize]; i++; } this.mMediaRecorder.onPreviewFrame1(dataYUV420P, camera); } 之后,this.mMediaRecorder.onPreviewFrame1函数会将dataYUV420P数据通过IO函数写入一个文件中,比如1.video 问题是,现在我调用ffmpeg的命令:ffmpeg -s 480x480,输出的视频是乱码;可是我如果换成ffmpeg -s 1216x912,视频可以输出,不过视频貌似被截取了,时间有点短。我猜测原因是我用Camera录制时,由于手机的previewSize的大小是1216*912,所以写入1.video的数据多了,而我显示只用到了480x480,所以我想问下,我应该怎么进行转换将1215x912,弄成480x480. 网上有人说用ffmpeg的lwscale进行转换,可是我不知道命令,有哪位大神可以提供一下命令吗,我测试一下。

Android Camera中使用onPreview里的byte[]data怎样保存到SD卡里

最近在做android多媒体开发,已经实践过录像和录音的功能。现在项目要求,android录制视频时,将原始视频数据保存下来,也就是yuv420sp格式的视频,以便以后对这个原始数据进一步的编码和修改。 最近查资料知道可以使用public void onPreviewFrame(byte[] data,Camera camera){}方法获取预览帧,而byte[]data即为所求的yuv420sp数据,但是不知道怎么才能把这个数据保存在SD卡上,希望有大神援助,感谢万分

yuv到rgb视频格式转换

#define asm __asm typedef unsigned char TUInt8; // [0..255] typedef unsigned long TUInt32; struct TARGB32 // 32 bit color { TUInt8 b,g,r,a; // a is alpha }; struct TPicRegion // 一块颜色数据区的描述,便于参数传递 { TARGB32 * pdata; // 颜色数据首地址 long byte_width; // 一行数据的物理宽度(字节宽度); // abs(byte_width)有可能大于等于width*sizeof(TARGB32); long width; // 像素宽度 long height; // 像素高度 }; // 那么访问一个点的函数可以写为: __forceinline TARGB32 & Pixels( const TPicRegion & pic, const long x, const long y) { return ( (TARGB32 * )((TUInt8 * )pic.pdata + pic.byte_width * y) )[x]; } // 颜色饱和函数 __forceinline long border_color( long color) { if (color > 255 ) return 255 ; else if (color < 0 ) return 0 ; else return color; } __forceinline TARGB32 YUVToRGB32_float( const TUInt8 Y, const TUInt8 U, const TUInt8 V) { TARGB32 result; result.b= border_color( 1.164383 * (Y - 16) + 2.017232*(U - 128) ); result.g= border_color( 1.164383 * (Y - 16) - 0.391762*(U - 128) - 0.812968*(V - 128) ); result.r= border_color( 1.164383 * (Y - 16) + 1.596027*(V - 128) ); result.a = 255 ; return result; } void DECODE_YUYV_Float( const TUInt8 * pYUYV, const TPicRegion & DstPic) { assert((DstPic.width & 1 ) == 0 ); TARGB32 * pDstLine = DstPic.pdata; for ( long y = 0 ;y < DstPic.height; ++ y) { for ( long x = 0 ;x < DstPic.width;x += 2 ) { pDstLine[x + 0 ] = YUVToRGB32_float(pYUYV[ 0 ],pYUYV[ 1 ],pYUYV[ 3 ]); pDstLine[x + 1 ] = YUVToRGB32_float(pYUYV[ 2 ],pYUYV[ 1 ],pYUYV[ 3 ]); pYUYV += 4 ; } ((TUInt8 *& )pDstLine) += DstPic.byte_width; } } 哪位大神帮忙写个 main()函数 让我看看具体输出是啥样的

YUV444,YUV422,YUV420中的4,2,0代表什么意思?

如题!网上看了几篇文章,还是没清楚YUV格式,还有后面带的数字难道没有意义吗,请这方面的大神解释解释.

由YUV转换成RGB后,得到了首地址pOut,和长度length,请问怎么在OPENCV 中显示呢?

由YUV转换成RGB后,得到了数据的首地址pOut,和长度length,请问怎么在OPENCV 中显示出图片呢?

求大神解释一下YUV数据转角的算法,为何通过几个for循环就搞定了?求解释一下每句代码的意思?

``` private byte[] rotateYUV420Degree270(byte[] data, int imageWidth, int imageHeight) { byte[] yuv = new byte[imageWidth * imageHeight * 3 / 2]; // Rotate the Y luma int i = 0; for (int x = imageWidth - 1; x >= 0; x--) { for (int y = 0; y < imageHeight; y++) { yuv[i] = data[y * imageWidth + x]; i++; } }// Rotate the U and V color components i = imageWidth*imageHeight; for (int x = imageWidth - 1; x > 0; x = x - 2) { for (int y = 0; y < imageHeight / 2; y++) { yuv[i] = data[(imageWidth * imageHeight) + (y * imageWidth) + (x - 1)]; i++; yuv[i] = data[(imageWidth * imageHeight) + (y * imageWidth) + x]; i++; } } return yuv; } private static byte[] rotateYUV420Degree180(byte[] data, int imageWidth, int imageHeight) { byte[] yuv = new byte[imageWidth * imageHeight * 3 / 2]; int i = 0; int count = 0; for (i = imageWidth * imageHeight - 1; i >= 0; i--) { yuv[count] = data[i]; count++; } i = imageWidth * imageHeight * 3 / 2 - 1; for (i = imageWidth * imageHeight * 3 / 2 - 1; i >= imageWidth * imageHeight; i -= 2) { yuv[count++] = data[i - 1]; yuv[count++] = data[i]; } return yuv; } private byte[] rotateYUV420Degree90(byte[] data, int imageWidth, int imageHeight) { byte[] yuv = new byte[imageWidth * imageHeight * 3 / 2]; // Rotate the Y luma int i = 0; for (int x = 0; x < imageWidth; x++) { for (int y = imageHeight - 1; y >= 0; y--) { yuv[i] = data[y * imageWidth + x]; i++; } } // Rotate the U and V color components i = imageWidth * imageHeight * 3 / 2 - 1; for (int x = imageWidth - 1; x > 0; x = x - 2) { for (int y = 0; y < imageHeight / 2; y++) { yuv[i] = data[(imageWidth * imageHeight) + (y * imageWidth) + x]; i--; yuv[i] = data[(imageWidth * imageHeight) + (y * imageWidth) + (x - 1)]; i--; } } return yuv; } ```

关于RGB,YUV互换,颜色失真的问题

我想要实现的功能是将RGB转为YUV,YUV输出的大小要为8位整数,我通过下面图片的代码进行转换然后还原,发现图像有失真,不知什么原因呢??求大神指点 ![图片说明](https://img-ask.csdn.net/upload/201503/21/1426930463_889285.jpg)

大学四年自学走来,这些私藏的实用工具/学习网站我贡献出来了

大学四年,看课本是不可能一直看课本的了,对于学习,特别是自学,善于搜索网上的一些资源来辅助,还是非常有必要的,下面我就把这几年私藏的各种资源,网站贡献出来给你们。主要有:电子书搜索、实用工具、在线视频学习网站、非视频学习网站、软件下载、面试/求职必备网站。 注意:文中提到的所有资源,文末我都给你整理好了,你们只管拿去,如果觉得不错,转发、分享就是最大的支持了。 一、电子书搜索 对于大部分程序员...

在中国程序员是青春饭吗?

今年,我也32了 ,为了不给大家误导,咨询了猎头、圈内好友,以及年过35岁的几位老程序员……舍了老脸去揭人家伤疤……希望能给大家以帮助,记得帮我点赞哦。 目录: 你以为的人生 一次又一次的伤害 猎头界的真相 如何应对互联网行业的「中年危机」 一、你以为的人生 刚入行时,拿着傲人的工资,想着好好干,以为我们的人生是这样的: 等真到了那一天,你会发现,你的人生很可能是这样的: ...

Java基础知识面试题(2020最新版)

文章目录Java概述何为编程什么是Javajdk1.5之后的三大版本JVM、JRE和JDK的关系什么是跨平台性?原理是什么Java语言有哪些特点什么是字节码?采用字节码的最大好处是什么什么是Java程序的主类?应用程序和小程序的主类有何不同?Java应用程序与小程序之间有那些差别?Java和C++的区别Oracle JDK 和 OpenJDK 的对比基础语法数据类型Java有哪些数据类型switc...

我以为我学懂了数据结构,直到看了这个导图才发现,我错了

数据结构与算法思维导图

String s = new String(" a ") 到底产生几个对象?

老生常谈的一个梗,到2020了还在争论,你们一天天的,哎哎哎,我不是针对你一个,我是说在座的各位都是人才! 上图红色的这3个箭头,对于通过new产生一个字符串(”宜春”)时,会先去常量池中查找是否已经有了”宜春”对象,如果没有则在常量池中创建一个此字符串对象,然后堆中再创建一个常量池中此”宜春”对象的拷贝对象。 也就是说准确答案是产生了一个或两个对象,如果常量池中原来没有 ”宜春” ,就是两个。...

技术大佬:我去,你写的 switch 语句也太老土了吧

昨天早上通过远程的方式 review 了两名新来同事的代码,大部分代码都写得很漂亮,严谨的同时注释也很到位,这令我非常满意。但当我看到他们当中有一个人写的 switch 语句时,还是忍不住破口大骂:“我擦,小王,你丫写的 switch 语句也太老土了吧!” 来看看小王写的代码吧,看完不要骂我装逼啊。 private static String createPlayer(PlayerTypes p...

Linux面试题(2020最新版)

文章目录Linux 概述什么是LinuxUnix和Linux有什么区别?什么是 Linux 内核?Linux的基本组件是什么?Linux 的体系结构BASH和DOS之间的基本区别是什么?Linux 开机启动过程?Linux系统缺省的运行级别?Linux 使用的进程间通信方式?Linux 有哪些系统日志文件?Linux系统安装多个桌面环境有帮助吗?什么是交换空间?什么是root帐户什么是LILO?什...

Linux命令学习神器!命令看不懂直接给你解释!

大家都知道,Linux 系统有非常多的命令,而且每个命令又有非常多的用法,想要全部记住所有命令的所有用法,恐怕是一件不可能完成的任务。 一般情况下,我们学习一个命令时,要么直接百度去搜索它的用法,要么就直接用 man 命令去查看守冗长的帮助手册。这两个都可以实现我们的目标,但有没有更简便的方式呢? 答案是必须有的!今天给大家推荐一款有趣而实用学习神器 — kmdr,让你解锁 Linux 学习新姿势...

和黑客斗争的 6 天!

互联网公司工作,很难避免不和黑客们打交道,我呆过的两家互联网公司,几乎每月每天每分钟都有黑客在公司网站上扫描。有的是寻找 Sql 注入的缺口,有的是寻找线上服务器可能存在的漏洞,大部分都...

史上最全的 python 基础知识汇总篇,没有比这再全面的了,建议收藏

网友们有福了,小编终于把基础篇的内容全部涉略了一遍,这是一篇关于基础知识的汇总的文章,请朋友们收下,不用客气,不过文章篇幅肯能会有点长,耐心阅读吧爬虫(七十)多进程multiproces...

讲一个程序员如何副业月赚三万的真实故事

loonggg读完需要3分钟速读仅需 1 分钟大家好,我是你们的校长。我之前讲过,这年头,只要肯动脑,肯行动,程序员凭借自己的技术,赚钱的方式还是有很多种的。仅仅靠在公司出卖自己的劳动时...

女程序员,为什么比男程序员少???

昨天看到一档综艺节目,讨论了两个话题:(1)中国学生的数学成绩,平均下来看,会比国外好?为什么?(2)男生的数学成绩,平均下来看,会比女生好?为什么?同时,我又联想到了一个技术圈经常讨...

85后蒋凡:28岁实现财务自由、34岁成为阿里万亿电商帝国双掌门,他的人生底层逻辑是什么?...

蒋凡是何许人也? 2017年12月27日,在入职4年时间里,蒋凡开挂般坐上了淘宝总裁位置。 为此,时任阿里CEO张勇在任命书中力赞: 蒋凡加入阿里,始终保持创业者的冲劲,有敏锐的...

总结了 150 余个神奇网站,你不来瞅瞅吗?

原博客再更新,可能就没了,之后将持续更新本篇博客。

副业收入是我做程序媛的3倍,工作外的B面人生是怎样的?

提到“程序员”,多数人脑海里首先想到的大约是:为人木讷、薪水超高、工作枯燥…… 然而,当离开工作岗位,撕去层层标签,脱下“程序员”这身外套,有的人生动又有趣,马上展现出了完全不同的A/B面人生! 不论是简单的爱好,还是正经的副业,他们都干得同样出色。偶尔,还能和程序员的特质结合,产生奇妙的“化学反应”。 @Charlotte:平日素颜示人,周末美妆博主 大家都以为程序媛也个个不修边幅,但我们也许...

MySQL数据库面试题(2020最新版)

文章目录数据库基础知识为什么要使用数据库什么是SQL?什么是MySQL?数据库三大范式是什么mysql有关权限的表都有哪几个MySQL的binlog有有几种录入格式?分别有什么区别?数据类型mysql有哪些数据类型引擎MySQL存储引擎MyISAM与InnoDB区别MyISAM索引与InnoDB索引的区别?InnoDB引擎的4大特性存储引擎选择索引什么是索引?索引有哪些优缺点?索引使用场景(重点)...

新一代神器STM32CubeMonitor介绍、下载、安装和使用教程

关注、星标公众号,不错过精彩内容作者:黄工公众号:strongerHuang最近ST官网悄悄新上线了一款比较强大的工具:STM32CubeMonitor V1.0.0。经过我研究和使用之...

如果你是老板,你会不会踢了这样的员工?

有个好朋友ZS,是技术总监,昨天问我:“有一个老下属,跟了我很多年,做事勤勤恳恳,主动性也很好。但随着公司的发展,他的进步速度,跟不上团队的步伐了,有点...

我入职阿里后,才知道原来简历这么写

私下里,有不少读者问我:“二哥,如何才能写出一份专业的技术简历呢?我总感觉自己写的简历太烂了,所以投了无数份,都石沉大海了。”说实话,我自己好多年没有写过简历了,但我认识的一个同行,他在阿里,给我说了一些他当年写简历的方法论,我感觉太牛逼了,实在是忍不住,就分享了出来,希望能够帮助到你。 01、简历的本质 作为简历的撰写者,你必须要搞清楚一点,简历的本质是什么,它就是为了来销售你的价值主张的。往深...

大学一路走来,学习互联网全靠这几个网站,最终拿下了一把offer

大佬原来都是这样炼成的

离职半年了,老东家又发 offer,回不回?

有小伙伴问松哥这个问题,他在上海某公司,在离职了几个月后,前公司的领导联系到他,希望他能够返聘回去,他很纠结要不要回去? 俗话说好马不吃回头草,但是这个小伙伴既然感到纠结了,我觉得至少说明了两个问题:1.曾经的公司还不错;2.现在的日子也不是很如意。否则应该就不会纠结了。 老实说,松哥之前也有过类似的经历,今天就来和小伙伴们聊聊回头草到底吃不吃。 首先一个基本观点,就是离职了也没必要和老东家弄的苦...

为什么你不想学习?只想玩?人是如何一步一步废掉的

不知道是不是只有我这样子,还是你们也有过类似的经历。 上学的时候总有很多光辉历史,学年名列前茅,或者单科目大佬,但是虽然慢慢地长大了,你开始懈怠了,开始废掉了。。。 什么?你说不知道具体的情况是怎么样的? 我来告诉你: 你常常潜意识里或者心理觉得,自己真正的生活或者奋斗还没有开始。总是幻想着自己还拥有大把时间,还有无限的可能,自己还能逆风翻盘,只不是自己还没开始罢了,自己以后肯定会变得特别厉害...

什么时候跳槽,为什么离职,你想好了么?

都是出来打工的,多为自己着想

为什么程序员做外包会被瞧不起?

二哥,有个事想询问下您的意见,您觉得应届生值得去外包吗?公司虽然挺大的,中xx,但待遇感觉挺低,马上要报到,挺纠结的。

当HR压你价,说你只值7K,你该怎么回答?

当HR压你价,说你只值7K时,你可以流畅地回答,记住,是流畅,不能犹豫。 礼貌地说:“7K是吗?了解了。嗯~其实我对贵司的面试官印象很好。只不过,现在我的手头上已经有一份11K的offer。来面试,主要也是自己对贵司挺有兴趣的,所以过来看看……”(未完) 这段话主要是陪HR互诈的同时,从公司兴趣,公司职员印象上,都给予对方正面的肯定,既能提升HR的好感度,又能让谈判气氛融洽,为后面的发挥留足空间。...

面试阿里p7,被按在地上摩擦,鬼知道我经历了什么?

面试阿里p7被问到的问题(当时我只知道第一个):@Conditional是做什么的?@Conditional多个条件是什么逻辑关系?条件判断在什么时候执...

你期望月薪4万,出门右拐,不送,这几个点,你也就是个初级的水平

先来看几个问题通过注解的方式注入依赖对象,介绍一下你知道的几种方式@Autowired和@Resource有何区别说一下@Autowired查找候选者的...

面试了一个 31 岁程序员,让我有所触动,30岁以上的程序员该何去何从?

最近面试了一个31岁8年经验的程序猿,让我有点感慨,大龄程序猿该何去何从。

大三实习生,字节跳动面经分享,已拿Offer

说实话,自己的算法,我一个不会,太难了吧

程序员垃圾简历长什么样?

已经连续五年参加大厂校招、社招的技术面试工作,简历看的不下于万份 这篇文章会用实例告诉你,什么是差的程序员简历! 疫情快要结束了,各个公司也都开始春招了,作为即将红遍大江南北的新晋UP主,那当然要为小伙伴们做点事(手动狗头)。 就在公众号里公开征简历,义务帮大家看,并一一点评。《启舰:春招在即,义务帮大家看看简历吧》 一石激起千层浪,三天收到两百多封简历。 花光了两个星期的所有空闲时...

立即提问