如何转换 yuv420sp的 byte[]数据成opencv 的Mat类型? 10C

如何转换 yuv420sp的 byte[]数据成opencv 的Mat类型?
在android相机中获取数据,想直接转换成mat类型,使用的opencv-android

6个回答

转换 yuv420sp的 byte[]数据成opencv 的Mat类型?
在android相机中获取数据,想直接转换成mat类型,使用的opencv-android

//YUV420SP转BGR
JNIEXPORT int JNICALL Java_com_facedetect_nativecaller_FaceNative_readYUV420SP(JNIEnv *env, jclass clz, jbyteArray yuv,jint len,jint height,jint width)
{

jbyte * pBuf = (jbyte*)env->GetByteArrayElements(yuv, 0);

Mat image(height + height/2,width,CV_8UC1,(unsigned char *)pBuf);
Mat mBgr;
cvtColor(image, mBgr, CV_YUV2BGR_NV21);
imwrite("/mnt/sdcard/readYuv.jpg",mBgr);

env->ReleaseByteArrayElements(yuv, pBuf, 0);   



return 0;

}
//上篇中,Bitmap转BGR
JNIEXPORT int JNICALL Java_com_facedetect_nativecaller_FaceNative_readBitmap(JNIEnv *env, jclass clz, jobject bitmapcolor,jint len,jint height,jint width)
{

    AndroidBitmapInfo  infocolor;
void*              pixelscolor;
int                ret;

if ((ret = AndroidBitmap_getInfo(env, bitmapcolor, &infocolor)) < 0) {
    LOGE("AndroidBitmap_getInfo() failed ! error=%d", ret);
    return -1;
}

LOGI("color image :: width is %d; height is %d; stride is %d; format is %d;flags is %d",
        infocolor.width,infocolor.height,infocolor.stride,infocolor.format,infocolor.flags);
if (infocolor.format != ANDROID_BITMAP_FORMAT_RGBA_8888) {
    LOGE("Bitmap format is not RGBA_8888 !");
    return -1;
}


if ((ret = AndroidBitmap_lockPixels(env, bitmapcolor, &pixelscolor)) < 0) {
    LOGE("AndroidBitmap_lockPixels() failed ! error=%d", ret);
}



Mat image(infocolor.height,infocolor.width,CV_8UC4,(char*)pixelscolor);

Mat bgr;


//转换成BGR
cvtColor(image,bgr,CV_RGBA2BGR);
imwrite("/mnt/sdcard/readBitmap.jpg",bgr);
//转换成GRAY

// cvtColor(bgr,gray,CV_BGR2GRAY);
// imwrite("/mnt/sdcard/gray.jpg",gray);

AndroidBitmap_unlockPixels(env, bitmapcolor);


return 0;

}

qq_32182845
LinWill_ZXH 想在java层直接转啊,这个我都看了一万遍了。。。
2 年多之前 回复

转换 yuv420sp的 byte[]数据成opencv 的Mat类型?
在android相机中获取数据,想直接转换成mat类型,使用的opencv-android

一、Mat类型:矩阵类型,Matrix。
  在openCV中,Mat是一个多维的密集数据数组。可以用来处理向量和矩阵、图像、直方图等等常见的多维数据。
  Mat有3个重要的方法:
  1、Mat mat = imread(const String* filename); 读取图像
  2、imshow(const string frameName, InputArray mat); 显示图像
  3、imwrite (const string& filename, InputArray img); 储存图像
  Mat类型较CvMat与IplImage类型来说,有更强的矩阵运算能力,支持常见的矩阵运算。在计算密集型的应用当中,将CvMat与IplImage类型转化为Mat类型将大大减少计算时间花费。
  A.Mat -> IplImage
  同样只是创建图像头,而没有复制数据。
  例: // 假设Mat类型的imgMat图像数据存在
  IplImage pImg= IplImage(imgMat);
  B.Mat -> CvMat
  与IplImage的转换类似,不复制数据,只创建矩阵头。
  例: // 假设Mat类型的imgMat图像数据存在
  CvMat cvMat = imgMat;
  
  二、CvMat类型与IplImage类型:“图像”类型
  在openCV中,Mat类型与CvMat和IplImage类型都可以代表和显示图像,但是,Mat类型侧重于计算,数学性较高,openCV对Mat类型的计算也进行了优化。而CvMat和IplImage类型更侧重于“图像”,openCV对其中的图像操作(缩放、单通道提取、图像阈值操作等)进行了优化。
  补充:IplImage由CvMat派生,而CvMat由CvArr派生即CvArr -> CvMat -> IplImage
  CvArr用作函数的参数,无论传入的是CvMat或IplImage,内部都是按CvMat处理。
  1.CvMat
  A.CvMat-> IplImage
  IplImage* img = cvCreateImage(cvGetSize(mat),8,1);
cvGetImage(matI,img);
  cvSaveImage("rice1.bmp",img);
  B.CvMat->Mat
  与IplImage的转换类似,可以选择是否复制数据。
  Mat::Mat(const CvMat* m, bool copyData=false);
  在openCV中,没有向量(vector)的数据结构。任何时候,但我们要表示向量时,用矩阵数据表示即可。
  但是,CvMat类型与我们在线性代数课程上学的向量概念相比,更抽象,比如CvMat的元素数据类型并不仅限于基础数据类型,比如,下面创建一个二维数据矩阵:
  CvMat* cvCreatMat(int rows ,int cols , int type);
  这里的type可以是任意的预定义数据类型,比如RGB或者别的多通道数据。这样我们便可以在一个CvMat矩阵上表示丰富多彩的图像了。
  
  2.IplImage
  在类型关系上,我们可以说IplImage类型继承自CvMat类型,当然还包括其他的变量将之解析成图像数据。
  IplImage类型较之CvMat多了很多参数,比如depth和nChannels。在普通的矩阵类型当中,通常深度和通道数被同时表示,如用32位表示RGB+Alpha.但是,在图像处理中,我们往往将深度与通道数分开处理,这样做是OpenCV对图像表示的一种优化方案。
  IplImage的对图像的另一种优化是变量origin----原点。在计算机视觉处理上,一个重要的不便是对原点的定义不清楚,图像来源,编码格式,甚至操作系统都会对原地的选取产生影响。为了弥补这一点,openCV允许用户定义自己的原点设置。取值0表示原点位于图片左上角,1表示左下角。
  dataOrder参数定义数据的格式。有IPL_DATA_ORDER_PIXEL和IPL_DATA_ORDER_PLANE两种取值,前者便是对于像素,不同的通道的数据交叉排列,后者表示所有通道按顺序平行排列。
  IplImage类型的所有额外变量都是对“图像”的表示与计算能力的优化。
  A.IplImage -> Mat
  IplImage* pImg = cvLoadImage("lena.jpg");
Mat img(pImg,0); // 0是不复制影像,也就是pImg与img的data共用同个记忆体位置,header各自有
B.IplImage -> CvMat
  法1:CvMat mathdr, mat = cvGetMat( img, &mathdr );
  法2:CvMat *mat = cvCreateMat( img->height, img->width, CV_64FC3 );
cvConvert( img, mat );
  C.IplImage
-> BYTE*
  BYTE* data= img->imageData;
  
  CvMat和IplImage创建时的一个小区别:
  1、建立矩阵时,第一个参数为行数,第二个参数为列数。
  CvMat* cvCreateMat( int rows, int cols, int type );
  2、建立图像时,CvSize第一个参数为宽度,即列数;第二个参数为高度,即行数。这 个和CvMat矩阵正好相反。
  IplImage* cvCreateImage(CvSize size, int depth, int channels );
  CvSize cvSize( int width, int height );
  
  IplImage内部buffer每行是按4字节对齐的,CvMat没有这个限制
  
  补充:
  A.BYTE*-> IplImage*
  img= cvCreateImageHeader(cvSize(width,height),depth,channels);
  cvSetData(img,data,step);
  //首先由cvCreateImageHeader()创建IplImage图像头,制定图像的尺寸,深度和通道数;
  //然后由cvSetData()根据BYTE*图像数据指针设置IplImage图像头的数据数据,
  //其中step指定该IplImage图像每行占的字节数,对于1通道的IPL_DEPTH_8U图像,step可以等于width。

IplImage* YUV420_To_IplImage_Opencv(unsigned char* pYUV420, int width, int height)
{
if (!pYUV420)
{
return NULL;
}

IplImage *yuvimage,*rgbimg,*yimg,*uimg,*vimg,*uuimg,*vvimg;

int nWidth = width;
int nHeight = height;
rgbimg = cvCreateImage(cvSize(nWidth, nHeight),IPL_DEPTH_8U,3);
yuvimage = cvCreateImage(cvSize(nWidth, nHeight),IPL_DEPTH_8U,3);

yimg = cvCreateImageHeader(cvSize(nWidth, nHeight),IPL_DEPTH_8U,1);
uimg = cvCreateImageHeader(cvSize(nWidth/2, nHeight/2),IPL_DEPTH_8U,1);
vimg = cvCreateImageHeader(cvSize(nWidth/2, nHeight/2),IPL_DEPTH_8U,1);

uuimg = cvCreateImage(cvSize(nWidth, nHeight),IPL_DEPTH_8U,1);
vvimg = cvCreateImage(cvSize(nWidth, nHeight),IPL_DEPTH_8U,1);

cvSetData(yimg,pYUV420, nWidth);
cvSetData(uimg,pYUV420+nWidth*nHeight, nWidth/2);
cvSetData(vimg,pYUV420+long(nWidth*nHeight*1.25), nWidth/2);
cvResize(uimg,uuimg,CV_INTER_LINEAR);
cvResize(vimg,vvimg,CV_INTER_LINEAR);

cvMerge(yimg,uuimg,vvimg,NULL,yuvimage);
cvCvtColor(yuvimage,rgbimg,CV_YCrCb2RGB);

cvReleaseImage(&uuimg);
cvReleaseImage(&vvimg);
cvReleaseImageHeader(&yimg);
cvReleaseImageHeader(&uimg);
cvReleaseImageHeader(&vimg);

cvReleaseImage(&yuvimage);

if (!rgbimg)
{
    return NULL;
}

return rgbimg;

}

 public Bitmap rawByteArray2RGBABitmap2(byte[] data, int width, int height) {
        byte[] rotateData = rotateYUV420Degree90(data, width, height);
        int w = height;
        int h = width;
        int frameSize = w * h;
        int[] rgba = new int[frameSize];

        for (int i = 0; i < h; i++)
            for (int j = 0; j < w; j++) {
                int y = (0xff & ((int) rotateData[i * w + j]));
                int u = (0xff & ((int) rotateData[frameSize + (i >> 1) * w + (j & ~1) + 0]));
                int v = (0xff & ((int) rotateData[frameSize + (i >> 1) * w + (j & ~1) + 1]));
                y = y < 16 ? 16 : y;

                int r = Math.round(1.164f * (y - 16) + 1.596f * (v - 128));
                int g = Math.round(1.164f * (y - 16) - 0.813f * (v - 128) - 0.391f * (u - 128));
                int b = Math.round(1.164f * (y - 16) + 2.018f * (u - 128));

                r = r < 0 ? 0 : (r > 255 ? 255 : r);
                g = g < 0 ? 0 : (g > 255 ? 255 : g);
                b = b < 0 ? 0 : (b > 255 ? 255 : b);

                rgba[i * w + j] = 0xff000000 + (b << 16) + (g << 8) + r;
            }

        Bitmap bmp = Bitmap.createBitmap(w, h, Bitmap.Config.ARGB_8888);
        bmp.setPixels(rgba, 0, w, 0, 0, w, h);

        Bitmap rectBitmap = Bitmap.createBitmap(bmp, ByteDataClass.rectX, ByteDataClass.rectY,
                ByteDataClass.rectWidth, ByteDataClass.rectHeight);
        Bitmap bit = Bitmap.createScaledBitmap(rectBitmap, rectBitmap.getWidth() / 2, rectBitmap.getHeight() / 2, true);

        return bit;
    }

    private byte[] rotateYUV420Degree90(byte[] data, int imageWidth, int imageHeight) {
        byte[] yuv = new byte[imageWidth * imageHeight * 3 / 2];
        // Rotate the Y luma
        int i = 0;
        for (int x = 0; x < imageWidth; x++) {
            for (int y = imageHeight - 1; y >= 0; y--) {
                yuv[i] = data[y * imageWidth + x];
                i++;
            }
        }
        // Rotate the U and V color components
        i = imageWidth * imageHeight * 3 / 2 - 1;
        for (int x = imageWidth - 1; x > 0; x = x - 2) {
            for (int y = 0; y < imageHeight / 2; y++) {
                yuv[i] = data[(imageWidth * imageHeight) + (y * imageWidth) + x];
                i--;
                yuv[i] = data[(imageWidth * imageHeight) + (y * imageWidth) + (x - 1)];
                i--;
            }
        }
        return yuv;
    }

最后把rawByteArray2RGBABitmap2这个函数中得到的bitmap进行一下处理就变成mat了
Mat mbgr = new Mat();
Utils.bitmapToMat(img,mbgr);

我是这样做的,不过存在失真,不知道楼主有没有更好的方法,指点一二 谢谢

Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
请问如何用c语言从jpg图片读取出yuv420sp nv21格式的信息(jpg转nv21)

请问如何用c语言从jpg图片读取出yuv420sp nv21格式的信息(jpg转nv21),尽量不依赖别的库,或者使用libjpeg库

opencv数据流转化成mat

http://www.opencv.org.cn/forum.php?mod=viewthread&tid=258341&extra=

bitmap转YUV420之后的图片和原图有色差

转换算法如下 void encodeYUV420SP(byte[] yuv420sp, int[] argb, int width, int height) { final int frameSize = width * height; int yIndex = 0; int uvIndex = frameSize; int a, R, G, B, Y, U, V; int index = 0; for (int j = 0; j < height; j++) { for (int i = 0; i < width; i++) { R = (argb[index] & 0xff0000) >> 16; G = (argb[index] & 0xff00) >> 8; B = (argb[index] & 0xff) >> 0; // well known RGB to YUV algorithm Y = ((66 * R + 129 * G + 25 * B + 128) >> 8) + 16; U = ((-38 * R - 74 * G + 112 * B + 128) >> 8) + 128; V = ((112 * R - 94 * G - 18 * B + 128) >> 8) + 128; // NV21 has a plane of Y and interleaved planes of VU each sampled by a factor of 2 // meaning for every 4 Y pixels there are 1 V and 1 U. Note the sampling is every other // pixel AND every other scanline. yuv420sp[yIndex++] = (byte) ((Y < 0) ? 0 : ((Y > 255) ? 255 : Y)); if (j % 2 == 0 && index % 2 == 0) { yuv420sp[uvIndex++] = (byte) ((V < 0) ? 0 : ((V > 255) ? 255 : V)); yuv420sp[uvIndex++] = (byte) ((U < 0) ? 0 : ((U > 255) ? 255 : U)); } index++; } } }

关于yuv420数据读取的问题

目前,y数据可以成功读取出来,就是uv数据出问题。出现的图片有些纵向压缩一半,不知道怎么回事,我调试代码,感觉没有错哈!代码如下: ``` pdata=ive_420_img->pu8VirAddr[1]; qdata=ive_444_img->pu8VirAddr[1]; for(HI_U16 i=0;i<ive_420_img->u16Height;i++) { for(HI_U16 j=0;j<ive_420_img->u16Stride[0];j++) { y_index=i*ive_420_img->u16Stride[0]+j; uv_index=(i>>1)*(ive_420_img->u16Stride[0]>>1)+(j>>1); qdata[y_index]=pdata[uv_index]; } } ``` 上面代码的意思是,将YUV420转化为YUV444,其中pdata直接指向的是420的U数据(源数据),qdata指向的是444的U数据(目的数据)。我用opencv显示U分量数据,结果见下: (对不起图像传不上去:纵向压缩:正确转化后的坐标为(x,y),但是目前却显示在了(x,y/2)的位置,图像的分辨率不变,其余部分是以灰色填充的。大家帮忙分析一下什么问题?

如何在windows下得到YUV摄像头原始的数据?

因为我想要快速地从我的开发板传数据到电脑,因此我尝试使用USB的视频类模式来传输。 在Linux主机上,我用python的一个库pygame成功地获取到了YUV摄像头原始的数据, 但是在windows下却遇到了问题。 下面是我做过的事: 1.将我的开发板设置成USB摄像头,然后像发送图片一样发送自定义的数据。 if(connected) { // Send 614400 byte of mydata uvcdSendImage( (UINT32)mydata, 614400, 0); // Wait to end while(!uvcdIsReady()); } 2.在Linux主机上,我用python的库pygame连接USB摄像头,用下面的代码成功获取数据。 但是Window下的pygame没有 “get_raw()”这个函数。所以我没办法得到摄像头的原始数据。 pygame.init() pygame.camera.init() cameras = pygame.camera.list_cameras() cam = pygame.camera.Camera(cameras[0],(WIDTH,HEIGHT),"YUV") cam.start() while receive_size > UVC_SIZE_QQVGA: raw_data = raw_data + cam.get_raw() receive_size = receive_size - UVC_SIZE_QQVGA raw_data = raw_data + cam.get_raw() cam.stop() 3.然后我尝试在windows下使用 OpenCV(python和C++都尝试过)来获取数据, 但是opencv得到的数据 是转换后的BGR格式的数据,这也不是我想要的。 4.最后我使用windows下另外一个操作摄像头的python库VideoCapture(http://videocapture.sourceforge.net/)。 库里面有个函数叫 "getBuffer()",用这个函数,我好像可以得到YUV摄像头的原始数据,我的意思是开发板发送从摄像头获取到的 数据时,电脑端能够收到数据(我并不知道这是原始的数据还是转化后的数据)。但是当我传输我自定义的数据时(发送的数据和一张图的大小是一样的), 电脑端就不能够得到数据了。 另外我发现了一个现象,当我在开发板上发送自定义的数据时,我打开windows自带的摄像头采集软件Ecap.exe,最开始显示窗口什么也没有。 但当我点击了“录像”按钮,显示就有反应了,我知道这个时候开发板上的数据传上电脑了。 网上搜索了一大圈,也没有找到答案。我最终的目的是利用USB快速传输任意的数据,然后电脑端能够接收。串口慢了,USB的HID模式也不够快。希望可以得到大家的帮助。谢谢。

opencv cvcvtcolor函数 将RGB转为YUV

![YUV](https://img-ask.csdn.net/upload/201504/13/1428924331_530409.png) ![RGB](https://img-ask.csdn.net/upload/201504/13/1428924318_594405.png) 转换后图片怎么变成这样了

Android视频录制怎样把录制的YUV420sp格式的原始视频保存下来?

最近在研究android的camera,通过使用mediarecorder已经实现了录制视频。目前想把录制的视频不通过自带的编码器进行编码,就是直接把录制时的视频数据保存 下来。从网上找的资料,知道可以使用setPreviewCallback的onPreviewFrame[]接口保存实时视频的每一帧,但是网上可行的代码不多,很多是转到RGB格式,或者保存为Bitmap的,都不太符合要求。有没有大神指导下,怎样解决这个问题,困扰好久了,头疼ing。

海康摄像头SDK实现YUV到RGB的转换实现基于OpenCV的实现

海康SDK的回调格式是YUV 我需要OpenCV转到RGB可用于解析二维码

安卓手机实时视频传输

我要写一篇论文,不知道思路对不对,麻烦各位牛人给看看。 我是要做一个APP,我的思路是通过安卓自带摄像头采集视频并预览,回调函数获取实时视频帧数据,通过wifi环境下的Socket UDP传输采集到的原始YUV420sp数据到另一台手机上去,另一台手机上将获得的YUV420sp数据转换成RGB格式的,然后用SurfaceView控件显示出来。 就整个思路有没有逻辑问题?有没有技术难题?比如,YUV能通过socket传输吗?YUV转RGB后,SurfaceView能显示出来吗? 这对我很重要。希望大家给个答案。谢谢了。跪谢。

Android Camera中使用onPreview里的byte[]data怎样保存到SD卡里

最近在做android多媒体开发,已经实践过录像和录音的功能。现在项目要求,android录制视频时,将原始视频数据保存下来,也就是yuv420sp格式的视频,以便以后对这个原始数据进一步的编码和修改。 最近查资料知道可以使用public void onPreviewFrame(byte[] data,Camera camera){}方法获取预览帧,而byte[]data即为所求的yuv420sp数据,但是不知道怎么才能把这个数据保存在SD卡上,希望有大神援助,感谢万分

yuv到rgb视频格式转换

#define asm __asm typedef unsigned char TUInt8; // [0..255] typedef unsigned long TUInt32; struct TARGB32 // 32 bit color { TUInt8 b,g,r,a; // a is alpha }; struct TPicRegion // 一块颜色数据区的描述,便于参数传递 { TARGB32 * pdata; // 颜色数据首地址 long byte_width; // 一行数据的物理宽度(字节宽度); // abs(byte_width)有可能大于等于width*sizeof(TARGB32); long width; // 像素宽度 long height; // 像素高度 }; // 那么访问一个点的函数可以写为: __forceinline TARGB32 & Pixels( const TPicRegion & pic, const long x, const long y) { return ( (TARGB32 * )((TUInt8 * )pic.pdata + pic.byte_width * y) )[x]; } // 颜色饱和函数 __forceinline long border_color( long color) { if (color > 255 ) return 255 ; else if (color < 0 ) return 0 ; else return color; } __forceinline TARGB32 YUVToRGB32_float( const TUInt8 Y, const TUInt8 U, const TUInt8 V) { TARGB32 result; result.b= border_color( 1.164383 * (Y - 16) + 2.017232*(U - 128) ); result.g= border_color( 1.164383 * (Y - 16) - 0.391762*(U - 128) - 0.812968*(V - 128) ); result.r= border_color( 1.164383 * (Y - 16) + 1.596027*(V - 128) ); result.a = 255 ; return result; } void DECODE_YUYV_Float( const TUInt8 * pYUYV, const TPicRegion & DstPic) { assert((DstPic.width & 1 ) == 0 ); TARGB32 * pDstLine = DstPic.pdata; for ( long y = 0 ;y < DstPic.height; ++ y) { for ( long x = 0 ;x < DstPic.width;x += 2 ) { pDstLine[x + 0 ] = YUVToRGB32_float(pYUYV[ 0 ],pYUYV[ 1 ],pYUYV[ 3 ]); pDstLine[x + 1 ] = YUVToRGB32_float(pYUYV[ 2 ],pYUYV[ 1 ],pYUYV[ 3 ]); pYUYV += 4 ; } ((TUInt8 *& )pDstLine) += DstPic.byte_width; } } 哪位大神帮忙写个 main()函数 让我看看具体输出是啥样的

YUV444,YUV422,YUV420中的4,2,0代表什么意思?

如题!网上看了几篇文章,还是没清楚YUV格式,还有后面带的数字难道没有意义吗,请这方面的大神解释解释.

rgb转byte数组应该怎么处理

我在看YUV420SP转RGB的时候有如下一段java代码 if (r < 0) r = 0; else if (r > 262143) r = 262143; if (g < 0) g = 0; else if (g > 262143) g = 262143; if (b < 0) b = 0; else if (b > 262143) b = 262143; rgbBuf[yp * 3] = (byte)(r >> 10); rgbBuf[yp * 3 + 1] = (byte)(g >> 10); rgbBuf[yp * 3 + 2] = (byte)(b >> 10); 将rgb存放到一个byte[]数组中,但是这样转换的颜色有问题,人物是蓝色的,我从别的地方也看到相关颜色转换算法 int rgbTmp = 0xff000000 | ((r << 6) & 0xff0000) | ((g >> 2) & 0xff00) | ((b >> 10) & 0xff); 第二种转换换后的是int型数据,但是我需要的是3个自己的byte数组,而且好像转换算法也不同,不知道那种是正确的

由YUV转换成RGB后,得到了首地址pOut,和长度length,请问怎么在OPENCV 中显示呢?

由YUV转换成RGB后,得到了数据的首地址pOut,和长度length,请问怎么在OPENCV 中显示出图片呢?

用libjpeg-turbo将jpeg图像转为YUV格式

新新手一枚,用libjpeg-turbo将jpeg图像转为YUV格式,运行jpeg_create_decompress时返回值为1并跳出,求问大佬们怎么解决

求大神解释一下YUV数据转角的算法,为何通过几个for循环就搞定了?求解释一下每句代码的意思?

``` private byte[] rotateYUV420Degree270(byte[] data, int imageWidth, int imageHeight) { byte[] yuv = new byte[imageWidth * imageHeight * 3 / 2]; // Rotate the Y luma int i = 0; for (int x = imageWidth - 1; x >= 0; x--) { for (int y = 0; y < imageHeight; y++) { yuv[i] = data[y * imageWidth + x]; i++; } }// Rotate the U and V color components i = imageWidth*imageHeight; for (int x = imageWidth - 1; x > 0; x = x - 2) { for (int y = 0; y < imageHeight / 2; y++) { yuv[i] = data[(imageWidth * imageHeight) + (y * imageWidth) + (x - 1)]; i++; yuv[i] = data[(imageWidth * imageHeight) + (y * imageWidth) + x]; i++; } } return yuv; } private static byte[] rotateYUV420Degree180(byte[] data, int imageWidth, int imageHeight) { byte[] yuv = new byte[imageWidth * imageHeight * 3 / 2]; int i = 0; int count = 0; for (i = imageWidth * imageHeight - 1; i >= 0; i--) { yuv[count] = data[i]; count++; } i = imageWidth * imageHeight * 3 / 2 - 1; for (i = imageWidth * imageHeight * 3 / 2 - 1; i >= imageWidth * imageHeight; i -= 2) { yuv[count++] = data[i - 1]; yuv[count++] = data[i]; } return yuv; } private byte[] rotateYUV420Degree90(byte[] data, int imageWidth, int imageHeight) { byte[] yuv = new byte[imageWidth * imageHeight * 3 / 2]; // Rotate the Y luma int i = 0; for (int x = 0; x < imageWidth; x++) { for (int y = imageHeight - 1; y >= 0; y--) { yuv[i] = data[y * imageWidth + x]; i++; } } // Rotate the U and V color components i = imageWidth * imageHeight * 3 / 2 - 1; for (int x = imageWidth - 1; x > 0; x = x - 2) { for (int y = 0; y < imageHeight / 2; y++) { yuv[i] = data[(imageWidth * imageHeight) + (y * imageWidth) + x]; i--; yuv[i] = data[(imageWidth * imageHeight) + (y * imageWidth) + (x - 1)]; i--; } } return yuv; } ```

在Android camera的预览回调中通过OpenCV保存图片为什么是灰色的呢

有没有大佬对opencv熟悉呀,小弟有个问题请教一下: 在camera的onpreviewframe回调中想通过opencv报错图片,按照以下代码,为什么保存的图片是灰色的呢? ``` Mat mat = new Mat(previewSize.height , previewSize.width, CvType.CV_8UC1);//初始化一个矩阵,没数据 mat.put(0, 0, data);//从(0,0)开始放数据,直到data放完或者矩阵被填满(若是多通道,则把当前位置的通道全部填满,才继续下一个位置,data长度必须整除通道数). Mat bgr_i420 = new Mat(previewSize.height*3/2 , previewSize.width, CvType.CV_8UC3); Imgproc.cvtColor(mat, bgr_i420, Imgproc.COLOR_YUV2RGBA_NV21);//转换颜色空间 File file = new File(getExternalCacheDir(), System.currentTimeMillis() + type + "mat.jpg"); Imgcodecs.imwrite(file.getAbsolutePath(), mat); ```

Android Camera中的onPreviewFrame里的byte[] data的预处理

是这样的,我正在做Android视频这块,因为我要实时采集视频,所以会调用到Android的Camera的onPreviewFrame(byte[] data, Camera camera),此时我手机的分辨率大概是1216x912,我会将data先转成yuv420p格式的,因为录出来的是yuv420sp,转完之后,先贴下代码: @Override public void onPreviewFrame(byte[] data, Camera camera) { int width = camera.getParameters().getPreviewSize().width; int height = camera.getParameters().getPreviewSize().height; int length = width * height * 3 / 2; byte[] dataYUV420P = new byte[width * height * 3 / 2]; // 每一帧的大小 int framesize = width * height; int i = 0, j = 0; // 这块没问题--Y for (i = 0; i < framesize; i++) { dataYUV420P[i] = data[i]; } // U i = 0; for (j = 0; j < framesize/2; j+=2) { dataYUV420P[i + framesize*5/4] = data[j+framesize]; i++; } i = 0; for (j = 1; j < framesize/2;j+=2) { dataYUV420P[i+framesize] = data[j+framesize]; i++; } this.mMediaRecorder.onPreviewFrame1(dataYUV420P, camera); } 之后,this.mMediaRecorder.onPreviewFrame1函数会将dataYUV420P数据通过IO函数写入一个文件中,比如1.video 问题是,现在我调用ffmpeg的命令:ffmpeg -s 480x480,输出的视频是乱码;可是我如果换成ffmpeg -s 1216x912,视频可以输出,不过视频貌似被截取了,时间有点短。我猜测原因是我用Camera录制时,由于手机的previewSize的大小是1216*912,所以写入1.video的数据多了,而我显示只用到了480x480,所以我想问下,我应该怎么进行转换将1215x912,弄成480x480. 网上有人说用ffmpeg的lwscale进行转换,可是我不知道命令,有哪位大神可以提供一下命令吗,我测试一下。

怎么把YUV422转bitmap,java

跪求YUV422转bitmap的java代码,网上百度了一些好像不顶用。

在中国程序员是青春饭吗?

今年,我也32了 ,为了不给大家误导,咨询了猎头、圈内好友,以及年过35岁的几位老程序员……舍了老脸去揭人家伤疤……希望能给大家以帮助,记得帮我点赞哦。 目录: 你以为的人生 一次又一次的伤害 猎头界的真相 如何应对互联网行业的「中年危机」 一、你以为的人生 刚入行时,拿着傲人的工资,想着好好干,以为我们的人生是这样的: 等真到了那一天,你会发现,你的人生很可能是这样的: ...

程序员请照顾好自己,周末病魔差点一套带走我。

程序员在一个周末的时间,得了重病,差点当场去世,还好及时挽救回来了。

C++(数据结构与算法)78:---分而治之

一、分而治之的思想 分而治之方法与软件设计的模块化方法非常相似 分而治之通常不用于解决问题的小实例,而要解决一个问题的大实例。一般步骤为: ①把一个大实例分为两个或多个更小的实例 ②分别解决每个小实例 ③把这些小实例的解组合成原始大实例的解 二、实际应用之找出假币 问题描述 一个袋子有16个硬币,其中只有一个是假币,这个假币比其他的真币重量轻(其他所有真币的重量都是相同的)...

springboot+jwt实现token登陆权限认证

一 前言 此篇文章的内容也是学习不久,终于到周末有时间码一篇文章分享知识追寻者的粉丝们,学完本篇文章,读者将对token类的登陆认证流程有个全面的了解,可以动态搭建自己的登陆认证过程;对小项目而已是个轻量级的认证机制,符合开发需求;更多精彩原创内容关注公主号知识追寻者,读者的肯定,就是对作者的创作的最大支持; 二 jwt实现登陆认证流程 用户使用账号和面发出post请求 服务器接受到请求后使用私...

技术大佬:我去,你写的 switch 语句也太老土了吧

昨天早上通过远程的方式 review 了两名新来同事的代码,大部分代码都写得很漂亮,严谨的同时注释也很到位,这令我非常满意。但当我看到他们当中有一个人写的 switch 语句时,还是忍不住破口大骂:“我擦,小王,你丫写的 switch 语句也太老土了吧!” 来看看小王写的代码吧,看完不要骂我装逼啊。 private static String createPlayer(PlayerTypes p...

win10暴力查看wifi密码

刚才邻居打了个电话说:喂小灰,你家wifi的密码是多少,我怎么连不上了。 我。。。 我也忘了哎,就找到了一个好办法,分享给大家: 第一种情况:已经连接上的wifi,怎么知道密码? 打开:控制面板\网络和 Internet\网络连接 然后右击wifi连接的无线网卡,选择状态 然后像下图一样: 第二种情况:前提是我不知道啊,但是我以前知道密码。 此时可以利用dos命令了 1、利用netsh wlan...

女程序员,为什么比男程序员少???

昨天看到一档综艺节目,讨论了两个话题:(1)中国学生的数学成绩,平均下来看,会比国外好?为什么?(2)男生的数学成绩,平均下来看,会比女生好?为什么?同时,我又联想到了一个技术圈经常讨...

副业收入是我做程序媛的3倍,工作外的B面人生是怎样的?

提到“程序员”,多数人脑海里首先想到的大约是:为人木讷、薪水超高、工作枯燥…… 然而,当离开工作岗位,撕去层层标签,脱下“程序员”这身外套,有的人生动又有趣,马上展现出了完全不同的A/B面人生! 不论是简单的爱好,还是正经的副业,他们都干得同样出色。偶尔,还能和程序员的特质结合,产生奇妙的“化学反应”。 @Charlotte:平日素颜示人,周末美妆博主 大家都以为程序媛也个个不修边幅,但我们也许...

MySQL数据库面试题(2020最新版)

文章目录数据库基础知识为什么要使用数据库什么是SQL?什么是MySQL?数据库三大范式是什么mysql有关权限的表都有哪几个MySQL的binlog有有几种录入格式?分别有什么区别?数据类型mysql有哪些数据类型引擎MySQL存储引擎MyISAM与InnoDB区别MyISAM索引与InnoDB索引的区别?InnoDB引擎的4大特性存储引擎选择索引什么是索引?索引有哪些优缺点?索引使用场景(重点)...

如果你是老板,你会不会踢了这样的员工?

有个好朋友ZS,是技术总监,昨天问我:“有一个老下属,跟了我很多年,做事勤勤恳恳,主动性也很好。但随着公司的发展,他的进步速度,跟不上团队的步伐了,有点...

我入职阿里后,才知道原来简历这么写

私下里,有不少读者问我:“二哥,如何才能写出一份专业的技术简历呢?我总感觉自己写的简历太烂了,所以投了无数份,都石沉大海了。”说实话,我自己好多年没有写过简历了,但我认识的一个同行,他在阿里,给我说了一些他当年写简历的方法论,我感觉太牛逼了,实在是忍不住,就分享了出来,希望能够帮助到你。 01、简历的本质 作为简历的撰写者,你必须要搞清楚一点,简历的本质是什么,它就是为了来销售你的价值主张的。往深...

程序员写出这样的代码,能不挨骂吗?

当你换槽填坑时,面对一个新的环境。能够快速熟练,上手实现业务需求是关键。但是,哪些因素会影响你快速上手呢?是原有代码写的不够好?还是注释写的不够好?昨夜...

带了6个月的徒弟当了面试官,而身为高级工程师的我天天修Bug......

即将毕业的应届毕业生一枚,现在只拿到了两家offer,但最近听到一些消息,其中一个offer,我这个组据说客户很少,很有可能整组被裁掉。 想问大家: 如果我刚入职这个组就被裁了怎么办呢? 大家都是什么时候知道自己要被裁了的? 面试软技能指导: BQ/Project/Resume 试听内容: 除了刷题,还有哪些技能是拿到offer不可或缺的要素 如何提升面试软实力:简历, 行为面试,沟通能...

优雅的替换if-else语句

场景 日常开发,if-else语句写的不少吧??当逻辑分支非常多的时候,if-else套了一层又一层,虽然业务功能倒是实现了,但是看起来是真的很不优雅,尤其是对于我这种有强迫症的程序"猿",看到这么多if-else,脑袋瓜子就嗡嗡的,总想着解锁新姿势:干掉过多的if-else!!!本文将介绍三板斧手段: 优先判断条件,条件不满足的,逻辑及时中断返回; 采用策略模式+工厂模式; 结合注解,锦...

!大部分程序员只会写3年代码

如果世界上都是这种不思进取的软件公司,那别说大部分程序员只会写 3 年代码,恐怕就没有程序员这种职业。

离职半年了,老东家又发 offer,回不回?

有小伙伴问松哥这个问题,他在上海某公司,在离职了几个月后,前公司的领导联系到他,希望他能够返聘回去,他很纠结要不要回去? 俗话说好马不吃回头草,但是这个小伙伴既然感到纠结了,我觉得至少说明了两个问题:1.曾经的公司还不错;2.现在的日子也不是很如意。否则应该就不会纠结了。 老实说,松哥之前也有过类似的经历,今天就来和小伙伴们聊聊回头草到底吃不吃。 首先一个基本观点,就是离职了也没必要和老东家弄的苦...

2020阿里全球数学大赛:3万名高手、4道题、2天2夜未交卷

阿里巴巴全球数学竞赛( Alibaba Global Mathematics Competition)由马云发起,由中国科学技术协会、阿里巴巴基金会、阿里巴巴达摩院共同举办。大赛不设报名门槛,全世界爱好数学的人都可参与,不论是否出身数学专业、是否投身数学研究。 2020年阿里巴巴达摩院邀请北京大学、剑桥大学、浙江大学等高校的顶尖数学教师组建了出题组。中科院院士、美国艺术与科学院院士、北京国际数学...

为什么你不想学习?只想玩?人是如何一步一步废掉的

不知道是不是只有我这样子,还是你们也有过类似的经历。 上学的时候总有很多光辉历史,学年名列前茅,或者单科目大佬,但是虽然慢慢地长大了,你开始懈怠了,开始废掉了。。。 什么?你说不知道具体的情况是怎么样的? 我来告诉你: 你常常潜意识里或者心理觉得,自己真正的生活或者奋斗还没有开始。总是幻想着自己还拥有大把时间,还有无限的可能,自己还能逆风翻盘,只不是自己还没开始罢了,自己以后肯定会变得特别厉害...

男生更看重女生的身材脸蛋,还是思想?

往往,我们看不进去大段大段的逻辑。深刻的哲理,往往短而精悍,一阵见血。问:产品经理挺漂亮的,有点心动,但不知道合不合得来。男生更看重女生的身材脸蛋,还是...

为什么程序员做外包会被瞧不起?

二哥,有个事想询问下您的意见,您觉得应届生值得去外包吗?公司虽然挺大的,中xx,但待遇感觉挺低,马上要报到,挺纠结的。

当HR压你价,说你只值7K,你该怎么回答?

当HR压你价,说你只值7K时,你可以流畅地回答,记住,是流畅,不能犹豫。 礼貌地说:“7K是吗?了解了。嗯~其实我对贵司的面试官印象很好。只不过,现在我的手头上已经有一份11K的offer。来面试,主要也是自己对贵司挺有兴趣的,所以过来看看……”(未完) 这段话主要是陪HR互诈的同时,从公司兴趣,公司职员印象上,都给予对方正面的肯定,既能提升HR的好感度,又能让谈判气氛融洽,为后面的发挥留足空间。...

面试:第十六章:Java中级开发

HashMap底层实现原理,红黑树,B+树,B树的结构原理 Spring的AOP和IOC是什么?它们常见的使用场景有哪些?Spring事务,事务的属性,传播行为,数据库隔离级别 Spring和SpringMVC,MyBatis以及SpringBoot的注解分别有哪些?SpringMVC的工作原理,SpringBoot框架的优点,MyBatis框架的优点 SpringCould组件有哪些,他们...

早上躺尸,晚上干活:硅谷科技公司这么流行迟到?

硅谷科技公司上班时间OPEN早已不是什么新鲜事,早九晚五是常态,但有很多企业由于不打卡,员工们10点、11点才“姗姗来迟”的情况也屡见不鲜。 这种灵活的考勤制度为人羡慕,甚至近年来,国内某些互联网企业也纷纷效仿。不过,硅谷普遍弹性的上班制度是怎么由来的呢?这种“流行性迟到”真的有那么轻松、悠哉吗? 《动态规划专题班》 课程试听内容: 动态规划的解题要领 动态规划三大类 求最值/计数/可行性 常...

面试阿里p7,被按在地上摩擦,鬼知道我经历了什么?

面试阿里p7被问到的问题(当时我只知道第一个):@Conditional是做什么的?@Conditional多个条件是什么逻辑关系?条件判断在什么时候执...

Python爬虫,高清美图我全都要(彼岸桌面壁纸)

爬取彼岸桌面网站较为简单,用到了requests、lxml、Beautiful Soup4

无代码时代来临,程序员如何保住饭碗?

编程语言层出不穷,从最初的机器语言到如今2500种以上的高级语言,程序员们大呼“学到头秃”。程序员一边面临编程语言不断推陈出新,一边面临由于许多代码已存在,程序员编写新应用程序时存在重复“搬砖”的现象。 无代码/低代码编程应运而生。无代码/低代码是一种创建应用的方法,它可以让开发者使用最少的编码知识来快速开发应用程序。开发者通过图形界面中,可视化建模来组装和配置应用程序。这样一来,开发者直...

面试了一个 31 岁程序员,让我有所触动,30岁以上的程序员该何去何从?

最近面试了一个31岁8年经验的程序猿,让我有点感慨,大龄程序猿该何去何从。

大三实习生,字节跳动面经分享,已拿Offer

说实话,自己的算法,我一个不会,太难了吧

程序员垃圾简历长什么样?

已经连续五年参加大厂校招、社招的技术面试工作,简历看的不下于万份 这篇文章会用实例告诉你,什么是差的程序员简历! 疫情快要结束了,各个公司也都开始春招了,作为即将红遍大江南北的新晋UP主,那当然要为小伙伴们做点事(手动狗头)。 就在公众号里公开征简历,义务帮大家看,并一一点评。《启舰:春招在即,义务帮大家看看简历吧》 一石激起千层浪,三天收到两百多封简历。 花光了两个星期的所有空闲时...

Java岗开发3年,公司临时抽查算法,离职后这几题我记一辈子

前几天我们公司做了一件蠢事,非常非常愚蠢的事情。我原以为从学校出来之后,除了找工作有测试外,不会有任何与考试有关的事儿。 但是,天有不测风云,公司技术总监、人事总监两位大佬突然降临到我们事业线,叫上我老大,给我们组织了一场别开生面的“考试”。 那是一个风和日丽的下午,我翘着二郎腿,左手端着一杯卡布奇诺,右手抓着我的罗技鼠标,滚动着轮轴,穿梭在头条热点之间。 “淡黄的长裙~蓬松的头发...

立即提问