我在网上找了个bmp转YUV的程序进行修改,但读不出数据,不知什么问题,有谁懂的请帮忙看下,谢谢了

#include
#include
#include "bmp2rgb.h"

u_int8_t BMP2RGB(BITMAPFILEHEADER file_header,BITMAPINFOHEADER info_header, FILE* bmpFile, u_int8_t* rgbBuf);//24bit RGB
u_int8_t RGB24ToYUV420(int Width,int Height,u_int8_t* rgbBuf,u_int8_t*YuvBuffer);

#define max(a,b) (((a)>(b))?(a):(b))
#define min(a,b) (((a) < (b)) ? (a) : (b))

int main(int argc, char** argv)
{

//设置命令行参数
argv[1]= "boot_logo.bmp";
argv[2]="boot_logo.yuv";    //相当于设置文件名
char* bmpFileName = argv[1];
char* yuvFileName = argv[2];

//打开文件
FILE* bmpFile = fopen(bmpFileName, "rb");
if (bmpFile == NULL)
{
    printf(" Open the BMP file.\n");
    exit(1);
}
else
{
    printf("The BMP file is %s\n", bmpFileName);
}


FILE* yuvFile = fopen(yuvFileName, "wb");
if (yuvFile == NULL)
{
    printf("Cannot open the YUV file.\n");
    exit(1);
}
else
{
    printf("The YUV file is %s\n", yuvFileName);
}

//读取BMP文件头,信息头,读取错误时的处理代码
BITMAPFILEHEADER file_header;
BITMAPINFOHEADER info_header;
if (fread(&file_header, sizeof(BITMAPFILEHEADER), 1, bmpFile) != 1)
    if (file_header.bfType != 0x4D42)
    {
        printf("Not BMP file.\n");
        exit(1);
    }
if (fread(&info_header, sizeof(BITMAPINFOHEADER), 1, bmpFile) != 1)
{
    printf("read info header error!");
    exit(1);
}//结束读取BMP文件头

//读取图像尺寸
int width = info_header.biWidth;
int height = info_header.biHeight;

//开辟缓冲区 buf
u_int8_t* yBuf = (u_int8_t*)malloc(height*width);
u_int8_t* uBuf = (u_int8_t*)malloc(height*width / 4);
u_int8_t* vBuf = (u_int8_t*)malloc(height*width / 4);
u_int8_t* rgbBuf = (u_int8_t*)malloc(height*width * 3);
u_int8_t*YuvBuffer =(u_int8_t*)malloc(height*width * 5);
if (yBuf == NULL || uBuf == NULL || vBuf == NULL || rgbBuf == NULL || YuvBuffer==NULL)
{
    printf("Not enough memory\n");
    exit(1);
}

//BMP与RGB的转换,得到RGB数据
if (BMP2RGB(file_header, info_header, bmpFile, rgbBuf))
{
    printf("BMP2RGB error\n");
    exit(1);
}
//RGB与YUV的转换,得到YUV数据

// int flip = 0;
/*读取到的图像数据是倒序存放的,flip=0保证了RGB2YUV可以正确地对其转换*/
/* if (RGB2YUV(width, height, rgbBuf, yBuf, uBuf, vBuf, flip))
{
printf("RGB2YUV error\n");
exit(1);
}

//将yuv按顺序写入yuvfile文件
fwrite(yBuf, 1, width * height, yuvFile);
fwrite(uBuf, 1, (width * height) / 4, yuvFile);
fwrite(vBuf, 1, (width * height) / 4, yuvFile);*/
if( RGB24ToYUV420( width, height, rgbBuf,YuvBuffer))
{
    printf("RGB24ToYUV420 error\n");
  exit(1);
}
int len=0;
len= fwrite(YuvBuffer, 1,sizeof(YuvBuffer), yuvFile);

printf("len ==%d byte\n",len);
//打印宽高,方便yuv观看程序打开
printf("width is %d", width);
printf("\n");
printf("height is %d", height); 
printf("\n");
//清理内存
free(rgbBuf);
free(YuvBuffer); 
free(yBuf); free(uBuf); free(vBuf);  
fclose(bmpFile);
fclose(yuvFile);

return 0;

}

u_int8_t BMP2RGB(BITMAPFILEHEADER file_header,BITMAPINFOHEADER info_header, FILE* bmpFile, u_int8_t* rgbBuf)
{
BITMAPFILEHEADER file_h=file_header;
BITMAPINFOHEADER info_h=info_header;
FILE* pFile =bmpFile;
int w=0,h=0;
//确定像素的实际点阵数
w = (info_h.biWidth*info_h.biBitCount + 31) / 32 * 4;//w为实际一行的字节数
h = info_h.biHeight;//h为列数
// printf("w==%d,h==%d\n",w,h);
//开辟实际字节数量的缓冲区,读数据,一次读取一个字节
u_int8_t* dataBuf = (u_int8_t*)malloc(w*h);
/*使用文件头的字节偏移属性bfOffBits
直接把文件指针定位到像素值数据的起始 /
fseek(pFile, file_h.bfOffBits, 0);
fread(dataBuf, 1, w*h, pFile);
unsigned char
data = dataBuf;
u_int8_t* rgb = rgbBuf;

//开始写入rgb
int i, j;
for (j = 0; j < h; j++)//j控制行循环
{
    for (i = 0; i < w; i += 3)//i控制列循环
    {
        *rgb = data[i + w*j];//B
        *(rgb + 1) = data[i + w*j + 1];//G
        *(rgb + 2) = data[i + w*j + 2];//R
        rgb += 3;
    }
}
//释放内存
free(dataBuf);
return 0;

}
/***************************************************************************************************************/

u_int8_t RGB24ToYUV420(int Width,int Height,u_int8_t* rgbBuf,u_int8_t*YuvBuffer)

{

u_int8_t* yuvBuf=YuvBuffer;//YUV空间

int nWidth=Width;

int nHeight=Height;

/////////////////////下面转换算法是网上查到的

int i, j;

u_int8_t*bufY = yuvBuf;

u_int8_t*bufU = yuvBuf + nWidth * nHeight;

u_int8_t*bufV = bufU + (nWidth* nHeight* 1/4);

u_int8_t*Y=bufY;

u_int8_t*U=bufU;

u_int8_t*V=bufV;

u_int8_t*bufRGB;  
unsigned char y, u, v, r, g, b;  
if (NULL==rgbBuf)  
{  
     printf("NULL==rgbBuf\n");
   return 1 ;  
}  
for (j = 0; j<nHeight;j++)  
{  
    bufRGB = rgbBuf + nWidth * (nHeight - 1-j) * 3 ;   
    for (i = 0;i<nWidth;i++)  
    {  
        int pos = nWidth * i + j;  
        r= *(bufRGB++);  
        g = *(bufRGB++);  
        b = *(bufRGB++);  
        y =(unsigned char)(( 66 * r + 129 * g +  25 * b + 128) >>8) + 16;//16  
        v = (unsigned char)((-38 * r -  74 * g + 112 * b + 128) >>8) +128  ; //128            
        u = (unsigned char)((112 * r -  94 * g -  18 * b + 128) >> 8) + 128 ;  
        *(bufY++)=max(0,min(y, 255 ));  

        if (j%2==0&&i%2 ==0)  
        {  
            if (u>255)  
            {  
                u=255;  
            }  
            if (u<0)  
            {  
                u = 0;  
            }  
            *(bufU++) =u;  
            //存u分量  
        }  
        else  
        {  
            //存v分量  
            if (i%2==0)  
            {  
                if (v>255)  
                {  
                    v = 255;  
                }  
                if (v<0)  
                {  
                    v = 0;  
                }  
                *(bufV++) =v;  
            }  
        }  
    }  
}
return 0;  

}


#include <stdio.h>
#include "sys/types.h"
#include <stdlib.h>
typedef unsigned long  DWORD;//32bit
typedef unsigned short WORD;//16bit
typedef unsigned long  LONG; //32bit

typedef struct tagBITMAPFILEHEADER {
    //0x00~0x01,说明文件的类型
    WORD bfType; 
    //0x02~0x05,说明文件的大小,用字节B为单位
    DWORD bfSize;
    //0x06~0x07,保留,设置为0
    WORD bfReserved1;
    //0x08~0x09,保留,设置为0
    WORD bfReserved2;
    //0x0a~0x0d,说明从BITMAP_FILE_HEADER结构开始到实际的图像数据之间的字节偏移量
    DWORD bfOffBits;
} BITMAPFILEHEADER;

typedef struct tagBITMAPINFOHEADER {
    //0x0e~0x11,说明当前结构体所需字节数
    DWORD biSize;
    //0x12~0x15,以像素为单位说明图像的宽度
    LONG biWidth;
    //0x16~0x19,以像素为单位说明图像的高度
    LONG biHeight;
    //0x1a~0x1b,说明位面数,必须为1
    WORD biPlanes;
    //0x1c~0x1d,说明图像的位深度
    WORD biBitCount;
    //0x1e~0x21,说明图像是否压缩及压缩类型
    DWORD biCompression;
    //0x22~0x25,以字节为单位说明图像大小,必须是4的整数倍
    DWORD biSizeImage;
    //0x26~0x29,目标设备的水平分辨率,像素/米 
    LONG biXPelsPerMeter;
    //0x2a~0x2d,目标设备的垂直分辨率,像素/米
    LONG biYPelsPerMeter;
    //0x2e~0x31,说明图像实际用到的颜色数,如果为0,则颜色数为2的biBitCount次方
    DWORD biClrUsed;
    //0x32~0x35,说明对图像显示有重要影响的颜色索引的数目,如果是0,表示都重要。
    DWORD biClrImportant;
} BITMAPINFOHEADER;



运行环境linux,bmp图片24位

运行结果:
The BMP file is boot_logo.bmp
The YUV file is boot_logo.yuv
len ==8 byte
width is 185729024
height is 0

3个回答

给你分享一下我用过的函数,输入一个rgb或gbr的图片矩阵及其宽高,输出一个转换后的灰度图:

 // BAYER GRBG
// Y = 0.299R + 0.587G + 0.114B
double g_RGB2YUV_RTable[] = 
{ 
0.000,0.299,0.598,0.897,1.196,1.495,1.794,2.093,2.392,2.691,2.990,3.289,3.588,3.887,4.186,4.485,4.784,5.083,5.382,5.681,5.980,6.279,6.578,6.877,7.176,7.475,
7.774,8.073,8.372,8.671,8.970,9.269,9.568,9.867,10.166,10.465,10.764,11.063,11.362,11.661,11.960,12.259,12.558,12.857,13.156,13.455,13.754,14.053,14.352,14.651,14.950,
15.249,15.548,15.847,16.146,16.445,16.744,17.043,17.342,17.641,17.940,18.239,18.538,18.837,19.136,19.435,19.734,20.033,20.332,20.631,20.930,21.229,21.528,21.827,22.126,22.425,
22.724,23.023,23.322,23.621,23.920,24.219,24.518,24.817,25.116,25.415,25.714,26.013,26.312,26.611,26.910,27.209,27.508,27.807,28.106,28.405,28.704,29.003,29.302,29.601,29.900,
30.199,30.498,30.797,31.096,31.395,31.694,31.993,32.292,32.591,32.890,33.189,33.488,33.787,34.086,34.385,34.684,34.983,35.282,35.581,35.880,36.179,36.478,36.777,37.076,37.375,
37.674,37.973,38.272,38.571,38.870,39.169,39.468,39.767,40.066,40.365,40.664,40.963,41.262,41.561,41.860,42.159,42.458,42.757,43.056,43.355,43.654,43.953,44.252,44.551,44.850,
45.149,45.448,45.747,46.046,46.345,46.644,46.943,47.242,47.541,47.840,48.139,48.438,48.737,49.036,49.335,49.634,49.933,50.232,50.531,50.830,51.129,51.428,51.727,52.026,52.325,
52.624,52.923,53.222,53.521,53.820,54.119,54.418,54.717,55.016,55.315,55.614,55.913,56.212,56.511,56.810,57.109,57.408,57.707,58.006,58.305,58.604,58.903,59.202,59.501,59.800,
60.099,60.398,60.697,60.996,61.295,61.594,61.893,62.192,62.491,62.790,63.089,63.388,63.687,63.986,64.285,64.584,64.883,65.182,65.481,65.780,66.079,66.378,66.677,66.976,67.275,
67.574,67.873,68.172,68.471,68.770,69.069,69.368,69.667,69.966,70.265,70.564,70.863,71.162,71.461,71.760,72.059,72.358,72.657,72.956,73.255,73.554,73.853,74.152,74.451,74.750,
75.049,75.348,75.647,75.946,76.245
};

double g_RGB2YUV_GTable[] = 
{
0.000,0.587,1.174,1.761,2.348,2.935,3.522,4.109,4.696,5.283,5.870,6.457,7.044,7.631,8.218,8.805,9.392,9.979,10.566,11.153,11.740,12.327,12.914,13.501,14.088,14.675,
15.262,15.849,16.436,17.023,17.610,18.197,18.784,19.371,19.958,20.545,21.132,21.719,22.306,22.893,23.480,24.067,24.654,25.241,25.828,26.415,27.002,27.589,28.176,28.763,29.350,
29.937,30.524,31.111,31.698,32.285,32.872,33.459,34.046,34.633,35.220,35.807,36.394,36.981,37.568,38.155,38.742,39.329,39.916,40.503,41.090,41.677,42.264,42.851,43.438,44.025,
44.612,45.199,45.786,46.373,46.960,47.547,48.134,48.721,49.308,49.895,50.482,51.069,51.656,52.243,52.830,53.417,54.004,54.591,55.178,55.765,56.352,56.939,57.526,58.113,58.700,
59.287,59.874,60.461,61.048,61.635,62.222,62.809,63.396,63.983,64.570,65.157,65.744,66.331,66.918,67.505,68.092,68.679,69.266,69.853,70.440,71.027,71.614,72.201,72.788,73.375,
73.962,74.549,75.136,75.723,76.310,76.897,77.484,78.071,78.658,79.245,79.832,80.419,81.006,81.593,82.180,82.767,83.354,83.941,84.528,85.115,85.702,86.289,86.876,87.463,88.050,
88.637,89.224,89.811,90.398,90.985,91.572,92.159,92.746,93.333,93.920,94.507,95.094,95.681,96.268,96.855,97.442,98.029,98.616,99.203,99.790,100.377,100.964,101.551,102.138,102.725,
103.312,103.899,104.486,105.073,105.660,106.247,106.834,107.421,108.008,108.595,109.182,109.769,110.356,110.943,111.530,112.117,112.704,113.291,113.878,114.465,115.052,115.639,116.226,116.813,117.400,
117.987,118.574,119.161,119.748,120.335,120.922,121.509,122.096,122.683,123.270,123.857,124.444,125.031,125.618,126.205,126.792,127.379,127.966,128.553,129.140,129.727,130.314,130.901,131.488,132.075,
132.662,133.249,133.836,134.423,135.010,135.597,136.184,136.771,137.358,137.945,138.532,139.119,139.706,140.293,140.880,141.467,142.054,142.641,143.228,143.815,144.402,144.989,145.576,146.163,146.750,
147.337,147.924,148.511,149.098,149.685
};

double g_RGB2YUV_BTable[] = 
{
0.000,0.114,0.228,0.342,0.456,0.570,0.684,0.798,0.912,1.026,1.140,1.254,1.368,1.482,1.596,1.710,1.824,1.938,2.052,2.166,2.280,2.394,2.508,2.622,2.736,2.850,
2.964,3.078,3.192,3.306,3.420,3.534,3.648,3.762,3.876,3.990,4.104,4.218,4.332,4.446,4.560,4.674,4.788,4.902,5.016,5.130,5.244,5.358,5.472,5.586,5.700,
5.814,5.928,6.042,6.156,6.270,6.384,6.498,6.612,6.726,6.840,6.954,7.068,7.182,7.296,7.410,7.524,7.638,7.752,7.866,7.980,8.094,8.208,8.322,8.436,8.550,
8.664,8.778,8.892,9.006,9.120,9.234,9.348,9.462,9.576,9.690,9.804,9.918,10.032,10.146,10.260,10.374,10.488,10.602,10.716,10.830,10.944,11.058,11.172,11.286,11.400,
11.514,11.628,11.742,11.856,11.970,12.084,12.198,12.312,12.426,12.540,12.654,12.768,12.882,12.996,13.110,13.224,13.338,13.452,13.566,13.680,13.794,13.908,14.022,14.136,14.250,
14.364,14.478,14.592,14.706,14.820,14.934,15.048,15.162,15.276,15.390,15.504,15.618,15.732,15.846,15.960,16.074,16.188,16.302,16.416,16.530,16.644,16.758,16.872,16.986,17.100,
17.214,17.328,17.442,17.556,17.670,17.784,17.898,18.012,18.126,18.240,18.354,18.468,18.582,18.696,18.810,18.924,19.038,19.152,19.266,19.380,19.494,19.608,19.722,19.836,19.950,
20.064,20.178,20.292,20.406,20.520,20.634,20.748,20.862,20.976,21.090,21.204,21.318,21.432,21.546,21.660,21.774,21.888,22.002,22.116,22.230,22.344,22.458,22.572,22.686,22.800,
22.914,23.028,23.142,23.256,23.370,23.484,23.598,23.712,23.826,23.940,24.054,24.168,24.282,24.396,24.510,24.624,24.738,24.852,24.966,25.080,25.194,25.308,25.422,25.536,25.650,
25.764,25.878,25.992,26.106,26.220,26.334,26.448,26.562,26.676,26.790,26.904,27.018,27.132,27.246,27.360,27.474,27.588,27.702,27.816,27.930,28.044,28.158,28.272,28.386,28.500,
28.614,28.728,28.842,28.956,29.070
};

// RGB
int RgbToY(unsigned char *pRgb, int nWidth, int nHeight, unsigned char *pY)
{
    unsigned char *pRgbTmp = pRgb;
    int nWidthBytes = nWidth * 3;
    for (int i = 0; i < nHeight; i++)
    {
        pRgbTmp = pRgb + i * nWidthBytes;
        for (int j = 0; j < nWidth; j++)
        {
            *pY = (int)(g_RGB2YUV_RTable[*pRgbTmp] + g_RGB2YUV_GTable[*(pRgbTmp + 1)] + g_RGB2YUV_BTable[*(pRgbTmp + 2)]);

            pRgbTmp += 3;
            pY++;
        }
    }

    return 0;
}

int RgbToY_Flip(unsigned char *pRgb, int nWidth, int nHeight, unsigned char *pY)
{
    unsigned char *pRgbTmp = pRgb;
    int nWidthBytes = nWidth * 3;
    for (int i = 0; i < nHeight; i++)
    {
        pRgbTmp = pRgb + (nHeight - i - 1)* nWidthBytes;
        for (int j = 0; j < nWidth; j++)
        {
            *pY = (int)(g_RGB2YUV_RTable[*pRgbTmp] + g_RGB2YUV_GTable[*(pRgbTmp + 1)] + g_RGB2YUV_BTable[*(pRgbTmp + 2)]);

            pRgbTmp += 3;
            pY++;
        }
    }

    return 0;
}

// BGR
int BgrToY( unsigned char *pRgb, int nWidth, int nHeight, unsigned char *pY )
{ 
    unsigned char *pRgbTmp = pRgb;
    int nWidthBytes = nWidth * 3;
    for (int i = 0; i < nHeight; i++)
    {
        pRgbTmp = pRgb + i * nWidthBytes;
        for (int j = 0; j < nWidth; j++)
        {
            *pY = (int)(g_RGB2YUV_RTable[*(pRgbTmp + 2)] + g_RGB2YUV_GTable[*(pRgbTmp + 1)] + g_RGB2YUV_BTable[*pRgbTmp]);

            pRgbTmp += 3;
            pY++;
        }
    }

    return 0;
}

int BgrToY_Flip(unsigned char *pRgb, int nWidth, int nHeight, unsigned char *pY)
{
    unsigned char *pRgbTmp = pRgb;
    int nWidthBytes = nWidth * 3;
    for (int i = 0; i < nHeight; i++)
    {
        pRgbTmp = pRgb + (nHeight - i - 1)* nWidthBytes;
        for (int j = 0; j < nWidth; j++)
        {
            *pY = (int)(g_RGB2YUV_RTable[*(pRgbTmp + 2)] + g_RGB2YUV_GTable[*(pRgbTmp + 1)] + g_RGB2YUV_BTable[*pRgbTmp]);

            pRgbTmp += 3;
            pY++;
        }
    }

    return 0;
}

LIUTAOZHU1013
LIUTAOZHU2017 回复phenix2009: 谢谢你,太感谢了,
一年多之前 回复
phenix2009
白色一大坨 回复LIUTAOZHU1013: 代码都贴出来了,是不是可以结贴了
一年多之前 回复
phenix2009
白色一大坨 回复LIUTAOZHU1013: 你的意思,是打开一张图片,如何读取到图片的数据区是吧?
一年多之前 回复
LIUTAOZHU1013
LIUTAOZHU2017 回复phenix2009: 你这是RGB转YUV了,但前面的bmp转RGB在哪哦?
一年多之前 回复
phenix2009
白色一大坨 这几个函数是已经在实际使用的,我也测试过,没啥问题
一年多之前 回复
phenix2009
白色一大坨 带flip的是反转函数
一年多之前 回复

打开图片获取数据区的函数:

    BITMAPFILEHEADER    BmpFileHeader;
    FILE* pFile;
    int ret = fopen_s(&pFile, lpszFileName, "rb+");
    if (ret != 0) return -1;
    fread(&BmpFileHeader, sizeof(BmpFileHeader), 1, pFile);
    if (BmpFileHeader.bfType != 0x4d42)                 return -1;

    LPBITMAPINFO pBmpInfo = NULL;
    pBmpInfo = (LPBITMAPINFO)new char[sizeof(BITMAPINFOHEADER)+256 * sizeof(RGBQUAD)];
    fread(pBmpInfo, BmpFileHeader.bfOffBits - sizeof(BITMAPFILEHEADER), 1, pFile);
    m_lWidth = pBmpInfo->bmiHeader.biWidth;
    m_lHeight = pBmpInfo->bmiHeader.biHeight;
    m_wBitCount = pBmpInfo->bmiHeader.biBitCount;


    int nLineByte = (m_lWidth * m_wBitCount + 31) / 32 * 4;
    int nDatalen = nLineByte * m_lHeight;
    if (m_pbtBmpBuf != NULL){ delete[] m_pbtBmpBuf; m_pbtBmpBuf = NULL; }
    m_pbtBmpBuf = new BYTE[nDatalen];
    BYTE    *pImageTemp = new BYTE[nDatalen];//图像数据区
    memset(pImageTemp, 0, nDatalen);
    fread(pImageTemp, nDatalen, 1, pFile);
    fclose(pFile);
    //调用转换函数
        delete[] pBmpInfo;
    pBmpInfo = NULL;
    delete[] pImageTemp;
    pImageTemp = NULL;

这几个函数是已经在实际使用的,我也测试过,没啥问题

Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
如何转换 yuv420sp的 byte[]数据成opencv 的Mat类型?
如何转换 yuv420sp的 byte[]数据成opencv 的Mat类型? 在android相机中获取数据,想直接转换成mat类型,使用的opencv-android
PNG转YUV时,怎么给UV通道加Alpha呢
各位大神, 我在给YUV图片添加水印,水印图片是PNG格式的,我用PNG库转成RGB8888(A,R,G,B), 现在Y通道对应的Alpha是A, 那么UV通道对应的Alpha该怎么取呢? 我试过用Y通道一样的A,但是颜色显示有问题。
如何在windows下得到YUV摄像头原始的数据?
因为我想要快速地从我的开发板传数据到电脑,因此我尝试使用USB的视频类模式来传输。 在Linux主机上,我用python的一个库pygame成功地获取到了YUV摄像头原始的数据, 但是在windows下却遇到了问题。 下面是我做过的事: 1.将我的开发板设置成USB摄像头,然后像发送图片一样发送自定义的数据。 if(connected) { // Send 614400 byte of mydata uvcdSendImage( (UINT32)mydata, 614400, 0); // Wait to end while(!uvcdIsReady()); } 2.在Linux主机上,我用python的库pygame连接USB摄像头,用下面的代码成功获取数据。 但是Window下的pygame没有 “get_raw()”这个函数。所以我没办法得到摄像头的原始数据。 pygame.init() pygame.camera.init() cameras = pygame.camera.list_cameras() cam = pygame.camera.Camera(cameras[0],(WIDTH,HEIGHT),"YUV") cam.start() while receive_size > UVC_SIZE_QQVGA: raw_data = raw_data + cam.get_raw() receive_size = receive_size - UVC_SIZE_QQVGA raw_data = raw_data + cam.get_raw() cam.stop() 3.然后我尝试在windows下使用 OpenCV(python和C++都尝试过)来获取数据, 但是opencv得到的数据 是转换后的BGR格式的数据,这也不是我想要的。 4.最后我使用windows下另外一个操作摄像头的python库VideoCapture(http://videocapture.sourceforge.net/)。 库里面有个函数叫 "getBuffer()",用这个函数,我好像可以得到YUV摄像头的原始数据,我的意思是开发板发送从摄像头获取到的 数据时,电脑端能够收到数据(我并不知道这是原始的数据还是转化后的数据)。但是当我传输我自定义的数据时(发送的数据和一张图的大小是一样的), 电脑端就不能够得到数据了。 另外我发现了一个现象,当我在开发板上发送自定义的数据时,我打开windows自带的摄像头采集软件Ecap.exe,最开始显示窗口什么也没有。 但当我点击了“录像”按钮,显示就有反应了,我知道这个时候开发板上的数据传上电脑了。 网上搜索了一大圈,也没有找到答案。我最终的目的是利用USB快速传输任意的数据,然后电脑端能够接收。串口慢了,USB的HID模式也不够快。希望可以得到大家的帮助。谢谢。
这个bmp的RGB转YUV,再用Y值输出灰度图为什么运行不出来?
# 谢谢诸位大佬,我觉得没什么毛病了啊…… ``` #include<stdio.h> #include<stdlib.h> #include<malloc.h> typedef unsigned char BYTE; typedef unsigned short WORD; typedef unsigned long DWORD; /* bmp文件头 */ #pragma pack(1) typedef struct BMPFILEHEADER { BYTE bfType; //文件类型,必须是0x424D,即字符“BM” DWORD bSize; // 文件的大小 WORD bReserved1; // 保留值,必须设置为0 WORD bReserved2; // 保留值,必须设置为0 DWORD bOffset; // 文件头的最后到图像数据位开始的偏移量 }BMPHeader; #pragma pack() /* 位图数据信息结构*/ #pragma pack(1) typedef struct BMP_INFO { DWORD bInfoSize; // 结构的大小 long bWidth; // 图像的宽度 long bHeight; // 图像的高度 WORD bPlanes; // 图像的平面数 WORD bBitCount; // 颜色/像素的位数 DWORD bCompression; // 压缩类型 DWORD bmpImageSize; // DIB数据区的大小,以字节为单位 long bXPelsPerMeter; // 水平分辨率 long bYPelsPerMeter; // 垂直分辨率 DWORD bClrUsed; // 使用的色彩数 DWORD bClrImportant; // 重要的颜色数 }BMPInfo; #pragma pack() /* 彩色表:调色板 */ #pragma pack(1) typedef struct RGB_QUAD { BYTE rgbBlue; // 蓝色强度 BYTE rgbGreen; // 绿色强度 BYTE rgbRed; // 红色强度 BYTE rgbReversed; // 保留值 }RGB; #pragma pack() int main() { FILE *fp,*fg; BMPHeader *fh; BMPInfo *fi; RGB *fq; BYTE data[2000][2000][3]; //存储RGB图像的像素点 BYTE yuv[2000][2000][3]; //yuv BYTE data_gray[2000]; //存储灰度图像的像素点 int i,j,k; printf("%d",0); fp=fopen("test.bmp","rb"); //打开bmp文件 if (fp==NULL){ printf("Can't open the file!\n"); return 0; } fh=(BMPHeader*)malloc(sizeof(BMPHeader)); fi=(BMPInfo*)malloc(sizeof(BMPInfo)); //读取位图头结构和信息头 fread(fh,sizeof(BMPHeader),1,fp); fread(fi,sizeof(BMPInfo),1,fp); //修改头信息 fi->bBitCount=8; fi->bmpImageSize=((fi->bWidth*3+3)/4)*4*fi->bHeight; //fi->biClrUsed=256; fh->bOffset=sizeof(BMPHeader)+sizeof(BMPInfo)+256*sizeof(RGB); fh->bSize=fh->bOffset+fi->bmpImageSize; printf("%d",123); for(i=0;i<fi->bHeight;i++) //读取RGB图像像素 { for(j=0;j<(fi->bWidth+3)/4*4;j++) { for(k=0;k<3;k++){ fread(&data[i][j][k],1,1,fp); } } } /*rgb2yuv*/ for(i=0;i<fi->bHeight;i++) { for(j=0;j<(fi->bWidth+3)/4*4;j++) { yuv[i][j][0]=0.299*data[i][j][2]+0.587*data[i][j][1]+0.114*data[i][j][0];//Y yuv[i][j][1]=0.493*(data[i][j][2]-yuv[i][j][0]);//U yuv[i][j][2]=0.877*(data[i][j][2]-yuv[i][j][0]);//V } } /*创建灰色图像*/ fg=fopen("gray.bmp","wb"); if(fg==NULL) printf("Wrong!(write a gray bmp)\n"); //创建调色板 fq=(RGB*)malloc(256*sizeof(RGB)); for(i=0;i<256;i++) { fq[i].rgbBlue=fq[i].rgbGreen=fq[i].rgbRed=i; //fq[i].rgbReversed=0; } fwrite(fh,sizeof(BMPHeader),1,fg); //将头信息写入 fwrite(fi,sizeof(BMPInfo),1,fg); fwrite(fq,sizeof(RGB),256,fg); for(i=0;i<fi->bHeight;i++){ //读取yuv中的Y值并写入灰度图 for(j=0;j<(fi->bWidth+3)/4*4;j++){ data_gray[j]=(int)yuv[i][j][0]; } fwrite(data_gray,j,1,fg); } free(fh); free(fi); free(fq); fclose(fp); fclose(fg); return 0; } ```
怎么把YUV422转bitmap,java
跪求YUV422转bitmap的java代码,网上百度了一些好像不顶用。
有谁会关于RGB模型转YUV模型的问题?
需要编写一个程序,实现对于给定的任意一副BMP图片,计算其最下角的宏块转化为YUV模型的值,分别输出Y,Cb,Cr三个分量的值。谢谢!
关于yuv420数据读取的问题
目前,y数据可以成功读取出来,就是uv数据出问题。出现的图片有些纵向压缩一半,不知道怎么回事,我调试代码,感觉没有错哈!代码如下: ``` pdata=ive_420_img->pu8VirAddr[1]; qdata=ive_444_img->pu8VirAddr[1]; for(HI_U16 i=0;i<ive_420_img->u16Height;i++) { for(HI_U16 j=0;j<ive_420_img->u16Stride[0];j++) { y_index=i*ive_420_img->u16Stride[0]+j; uv_index=(i>>1)*(ive_420_img->u16Stride[0]>>1)+(j>>1); qdata[y_index]=pdata[uv_index]; } } ``` 上面代码的意思是,将YUV420转化为YUV444,其中pdata直接指向的是420的U数据(源数据),qdata指向的是444的U数据(目的数据)。我用opencv显示U分量数据,结果见下: (对不起图像传不上去:纵向压缩:正确转化后的坐标为(x,y),但是目前却显示在了(x,y/2)的位置,图像的分辨率不变,其余部分是以灰色填充的。大家帮忙分析一下什么问题?
请问如何用c语言从jpg图片读取出yuv420sp nv21格式的信息(jpg转nv21)
请问如何用c语言从jpg图片读取出yuv420sp nv21格式的信息(jpg转nv21),尽量不依赖别的库,或者使用libjpeg库
YUV444,YUV422,YUV420中的4,2,0代表什么意思?
如题!网上看了几篇文章,还是没清楚YUV格式,还有后面带的数字难道没有意义吗,请这方面的大神解释解释.
由YUV转换成RGB后,得到了首地址pOut,和长度length,请问怎么在OPENCV 中显示呢?
由YUV转换成RGB后,得到了数据的首地址pOut,和长度length,请问怎么在OPENCV 中显示出图片呢?
海康摄像头SDK实现YUV到RGB的转换实现基于OpenCV的实现
海康SDK的回调格式是YUV 我需要OpenCV转到RGB可用于解析二维码
求大神解释一下YUV数据转角的算法,为何通过几个for循环就搞定了?求解释一下每句代码的意思?
``` private byte[] rotateYUV420Degree270(byte[] data, int imageWidth, int imageHeight) { byte[] yuv = new byte[imageWidth * imageHeight * 3 / 2]; // Rotate the Y luma int i = 0; for (int x = imageWidth - 1; x >= 0; x--) { for (int y = 0; y < imageHeight; y++) { yuv[i] = data[y * imageWidth + x]; i++; } }// Rotate the U and V color components i = imageWidth*imageHeight; for (int x = imageWidth - 1; x > 0; x = x - 2) { for (int y = 0; y < imageHeight / 2; y++) { yuv[i] = data[(imageWidth * imageHeight) + (y * imageWidth) + (x - 1)]; i++; yuv[i] = data[(imageWidth * imageHeight) + (y * imageWidth) + x]; i++; } } return yuv; } private static byte[] rotateYUV420Degree180(byte[] data, int imageWidth, int imageHeight) { byte[] yuv = new byte[imageWidth * imageHeight * 3 / 2]; int i = 0; int count = 0; for (i = imageWidth * imageHeight - 1; i >= 0; i--) { yuv[count] = data[i]; count++; } i = imageWidth * imageHeight * 3 / 2 - 1; for (i = imageWidth * imageHeight * 3 / 2 - 1; i >= imageWidth * imageHeight; i -= 2) { yuv[count++] = data[i - 1]; yuv[count++] = data[i]; } return yuv; } private byte[] rotateYUV420Degree90(byte[] data, int imageWidth, int imageHeight) { byte[] yuv = new byte[imageWidth * imageHeight * 3 / 2]; // Rotate the Y luma int i = 0; for (int x = 0; x < imageWidth; x++) { for (int y = imageHeight - 1; y >= 0; y--) { yuv[i] = data[y * imageWidth + x]; i++; } } // Rotate the U and V color components i = imageWidth * imageHeight * 3 / 2 - 1; for (int x = imageWidth - 1; x > 0; x = x - 2) { for (int y = 0; y < imageHeight / 2; y++) { yuv[i] = data[(imageWidth * imageHeight) + (y * imageWidth) + x]; i--; yuv[i] = data[(imageWidth * imageHeight) + (y * imageWidth) + (x - 1)]; i--; } } return yuv; } ```
android如何直接将解码出来的yuv显示
android如何直接将解码出来的yuv显示,目前我在项目中是将yuv转换成rgb565来显示,效率太低了。。。希望高手能给一个可行的方案。。。。
关于RGB,YUV互换,颜色失真的问题
我想要实现的功能是将RGB转为YUV,YUV输出的大小要为8位整数,我通过下面图片的代码进行转换然后还原,发现图像有失真,不知什么原因呢??求大神指点 ![图片说明](https://img-ask.csdn.net/upload/201503/21/1426930463_889285.jpg)
bitmap转YUV420之后的图片和原图有色差
转换算法如下 void encodeYUV420SP(byte[] yuv420sp, int[] argb, int width, int height) { final int frameSize = width * height; int yIndex = 0; int uvIndex = frameSize; int a, R, G, B, Y, U, V; int index = 0; for (int j = 0; j < height; j++) { for (int i = 0; i < width; i++) { R = (argb[index] & 0xff0000) >> 16; G = (argb[index] & 0xff00) >> 8; B = (argb[index] & 0xff) >> 0; // well known RGB to YUV algorithm Y = ((66 * R + 129 * G + 25 * B + 128) >> 8) + 16; U = ((-38 * R - 74 * G + 112 * B + 128) >> 8) + 128; V = ((112 * R - 94 * G - 18 * B + 128) >> 8) + 128; // NV21 has a plane of Y and interleaved planes of VU each sampled by a factor of 2 // meaning for every 4 Y pixels there are 1 V and 1 U. Note the sampling is every other // pixel AND every other scanline. yuv420sp[yIndex++] = (byte) ((Y < 0) ? 0 : ((Y > 255) ? 255 : Y)); if (j % 2 == 0 && index % 2 == 0) { yuv420sp[uvIndex++] = (byte) ((V < 0) ? 0 : ((V > 255) ? 255 : V)); yuv420sp[uvIndex++] = (byte) ((U < 0) ? 0 : ((U > 255) ? 255 : U)); } index++; } } }
android获取图像的yuv信息
本人菜鸟。建了一个app能调用系统相机,想在缩略图时获取图像yuv信息,最后得到图像亮度y信息。麻烦大神帮助一下
Android视频录制怎样把录制的YUV420sp格式的原始视频保存下来?
最近在研究android的camera,通过使用mediarecorder已经实现了录制视频。目前想把录制的视频不通过自带的编码器进行编码,就是直接把录制时的视频数据保存 下来。从网上找的资料,知道可以使用setPreviewCallback的onPreviewFrame[]接口保存实时视频的每一帧,但是网上可行的代码不多,很多是转到RGB格式,或者保存为Bitmap的,都不太符合要求。有没有大神指导下,怎样解决这个问题,困扰好久了,头疼ing。
关于OpenGL ES20显示YUV数据在不同手机要使用不同坐标系的问题,求教各位大虾
现在做OpenGL ES20在JNI层直接显示H264解码出来的YUV视频数据。参考的是这个[链接][1],里面的坐标系问题至今也还没能解决掉,在不同手机上一定要用不同坐标系才能在正确的位置显示完整图像,如下: #if 0 // 红米、台电pad、kindle pad 等 GLfloat squareVertices[] = { -1.0f, -1.0f, 1.0f, -1.0f, -1.0f, 1.0f, 1.0f, 1.0f, }; GLfloat coordVertices[] = { 0.0f, 1.0f, 1.0f, 1.0f, 0.0f, 0.0f, 1.0f, 0.0f, }; #else // 米2S、华为 等 GLfloat squareVertices[] = { 0.0f, 1.0f, 1.0f, 1.0f, 0.0f, 0.0f, 1.0f, 0.0f, }; GLfloat coordVertices[] = { -1.0f, -1.0f, 1.0f, -1.0f, -1.0f, 1.0f, 1.0f, 1.0f, }; #endif 观察一下还能发现这两种坐标数组还就相当于是把名字对调了一下而已,不知道有没有哪位对这个问题有解决方案的,求教啊。先谢了 [1]: http://blog.csdn.net/wangchenggggdn/article/details/8896453
MFC框架下自定义类中定义多线程问题
本人尝试在MFC框架下自定义一个类,该类负责接收和解码视频数据,因此需要在该类中定义多线程来做这件事情,以防止在对话框调用该类的时候卡死。 目前本人在自定义类中使用了static的方式开启了多线程,在win10下运行也很正常。然而在测试兼容性的时候发现该程序在win7 64位下会出错,出错的原因似乎是因为我在类内使用了static函数定义了多线程,而我又声明了该类的几个实体,因此static函数出现了调用实体出错的问题。 想问问看: 1.有没有老哥遇到过这种问题? 2.有没有比较好的解决思路? 3.是不是不应该在一个类中用static函数的形式定义线程? 4.像多路接收解码的功能除了封装成一个类然后使用多个实体来做外,还有没有更好的封装方式? ``` class HWdecode { public: bool changertspurl = false;//是否改变rtsp的地址标志 bool reconnect = false;//需要断线重连标志 bool haveconnect = false;//正常连接标志位 CCriticalSection* mlock;//线程临界区 bool dodecodesave = false;//像素转换开启标志位 //参数对象 FFmpegDemuxer* demuxer = NULL;//FFMPEG对象 CUcontext cuContext;//Cuda设备 NvDecoder* dec = NULL;//Cuda解码对象 CUdeviceptr dpFrame = 0;//数据存储对象初始化 int hwinit()//显卡设备初始化 { int iGpu = 0;//选择解码播放的GPU,只有一个的话直接设置为0就行 //检测硬件GPU设备 ck(cuInit(0)); int nGpu = 0; ck(cuDeviceGetCount(&nGpu)); if (iGpu < 0 || iGpu >= nGpu) { std::cout << "没有相应的GPU" << std::endl; return 0; } //获得CUDA对象 CUdevice cuDevice = 0; ck(cuDeviceGet(&cuDevice, iGpu)); char szDeviceName[80]; ck(cuDeviceGetName(szDeviceName, sizeof(szDeviceName), cuDevice)); std::cout << "GPU in use: " << szDeviceName << std::endl; ck(cuCtxCreate(&cuContext, CU_CTX_SCHED_BLOCKING_SYNC, cuDevice)); return 1; } int ffmpeginit(char* url)//ffmpeg对象初始化 { demuxer = new FFmpegDemuxer(url); if (demuxer->fmtc == NULL) { return 0; } else { //RGBA帧存储显存初始化 return 1; } } void cudadecoderinit()//cuda解码对象初始化 { ck(cuMemAlloc(&dpFrame, demuxer->GetWidth() * demuxer->GetHeight() * 4)); //解码器初始化 dec = new NvDecoder(cuContext, (*demuxer).GetWidth(), (*demuxer).GetHeight(), true, FFmpeg2NvCodecId((*demuxer).GetVideoCodec())); } DWORD decAndshow()//解码和播放 { int nVideoBytes = 0, nFrameReturned = 0, nFrame = 0; uint8_t* pVideo = NULL, ** ppFrame; long bt = clock(); do { uint8_t* getdpframe = (uint8_t*)dpFrame; demuxer->Demux(&pVideo, &nVideoBytes);//获取一帧视频数据 dec->Decode(pVideo, nVideoBytes, &ppFrame, &nFrameReturned);//解码这一帧数据 //if (!nFrame && nFrameReturned) // LOG(INFO) << HWD.dec->GetVideoInfo(); if (dodecodesave) { for (int i = 0; i < nFrameReturned; i++) { mlock->Lock(); //对解码出来的图像数据类型做转换,转到BGRA printf("GetWidth %d\n", dec->GetWidth()); printf("GetHeight %d\n", dec->GetHeight()); if (dec->GetBitDepth() == 8) { if (dec->GetOutputFormat() == cudaVideoSurfaceFormat_YUV444) YUV444ToColor32<RGBA32>((uint8_t*)ppFrame[i], dec->GetWidth(), getdpframe, 4 * dec->GetWidth(), dec->GetWidth(), dec->GetHeight()); else // default assumed as NV12 Nv12ToColor32<RGBA32>((uint8_t*)ppFrame[i], dec->GetWidth(), getdpframe, 4 * dec->GetWidth(), dec->GetWidth(), dec->GetHeight()); } mlock->Unlock(); } } nFrame += nFrameReturned; } while (nVideoBytes && changertspurl == false); changertspurl = false;//将rtsp地址修改标志位重新设置为否 printf("退出,尝试断线连回\n"); reconnect = true; delete demuxer; std::cout << "Total frame decoded: " << nFrame << std::endl; std::cout << "花费时间:" << clock() - bt << "ms" << std::endl; std::cout << "FPS:" << nFrame / ((clock() - bt) / 1000.0) << std::endl; return 1; } HANDLE pRecvAndShowThread;//接收显示线程对象 static DWORD ThreadRtspRecvShowFun(LPVOID lpParam) { return ((HWdecode*)lpParam)->decAndshow();//调用线程的处理函数 } int Star(char* url, CCriticalSection * lock) { mlock = lock; if (!hwinit())//初始化硬件设备 { std::cout << "硬件初始化失败!" << std::endl; return 0; } if (!ffmpeginit(url))//初始化硬件设备 { std::cout << "无法连接码流!" << std::endl; return 0; } cudadecoderinit(); pRecvAndShowThread = CreateThread(NULL, 0, (LPTHREAD_START_ROUTINE)HWdecode::ThreadRtspRecvShowFun, this, 0, NULL); return 1; } int ReStar(char* url, CCriticalSection* lock)//断线重连 { if (!ffmpeginit(url))//初始化硬件设备 { std::cout << "无法连接码流!" << std::endl; return 0; } if (!haveconnect) { cudadecoderinit(); } pRecvAndShowThread = CreateThread(NULL, 0, (LPTHREAD_START_ROUTINE)HWdecode::ThreadRtspRecvShowFun, this, 0, NULL); return 1; } }; ```
爬虫福利二 之 妹子图网MM批量下载
爬虫福利一:27报网MM批量下载    点击 看了本文,相信大家对爬虫一定会产生强烈的兴趣,激励自己去学习爬虫,在这里提前祝:大家学有所成! 目标网站:妹子图网 环境:Python3.x 相关第三方模块:requests、beautifulsoup4 Re:各位在测试时只需要将代码里的变量 path 指定为你当前系统要保存的路径,使用 python xxx.py 或IDE运行即可。
Java学习的正确打开方式
在博主认为,对于入门级学习java的最佳学习方法莫过于视频+博客+书籍+总结,前三者博主将淋漓尽致地挥毫于这篇博客文章中,至于总结在于个人,实际上越到后面你会发现学习的最好方式就是阅读参考官方文档其次就是国内的书籍,博客次之,这又是一个层次了,这里暂时不提后面再谈。博主将为各位入门java保驾护航,各位只管冲鸭!!!上天是公平的,只要不辜负时间,时间自然不会辜负你。 何谓学习?博主所理解的学习,它
程序员必须掌握的核心算法有哪些?
由于我之前一直强调数据结构以及算法学习的重要性,所以就有一些读者经常问我,数据结构与算法应该要学习到哪个程度呢?,说实话,这个问题我不知道要怎么回答你,主要取决于你想学习到哪些程度,不过针对这个问题,我稍微总结一下我学过的算法知识点,以及我觉得值得学习的算法。这些算法与数据结构的学习大多数是零散的,并没有一本把他们全部覆盖的书籍。下面是我觉得值得学习的一些算法以及数据结构,当然,我也会整理一些看过
大学四年自学走来,这些私藏的实用工具/学习网站我贡献出来了
大学四年,看课本是不可能一直看课本的了,对于学习,特别是自学,善于搜索网上的一些资源来辅助,还是非常有必要的,下面我就把这几年私藏的各种资源,网站贡献出来给你们。主要有:电子书搜索、实用工具、在线视频学习网站、非视频学习网站、软件下载、面试/求职必备网站。 注意:文中提到的所有资源,文末我都给你整理好了,你们只管拿去,如果觉得不错,转发、分享就是最大的支持了。 一、PDF搜索网站推荐 对于大部
linux系列之常用运维命令整理笔录
本博客记录工作中需要的linux运维命令,大学时候开始接触linux,会一些基本操作,可是都没有整理起来,加上是做开发,不做运维,有些命令忘记了,所以现在整理成博客,当然vi,文件操作等就不介绍了,慢慢积累一些其它拓展的命令,博客不定时更新 顺便拉下票,我在参加csdn博客之星竞选,欢迎投票支持,每个QQ或者微信每天都可以投5票,扫二维码即可,http://m234140.nofollow.ax.
Vue + Spring Boot 项目实战(十四):用户认证方案与完善的访问拦截
本篇文章主要讲解 token、session 等用户认证方案的区别并分析常见误区,以及如何通过前后端的配合实现完善的访问拦截,为下一步权限控制的实现打下基础。
比特币原理详解
一、什么是比特币 比特币是一种电子货币,是一种基于密码学的货币,在2008年11月1日由中本聪发表比特币白皮书,文中提出了一种去中心化的电子记账系统,我们平时的电子现金是银行来记账,因为银行的背后是国家信用。去中心化电子记账系统是参与者共同记账。比特币可以防止主权危机、信用风险。其好处不多做赘述,这一层面介绍的文章很多,本文主要从更深层的技术原理角度进行介绍。 二、问题引入  假设现有4个人
程序员接私活怎样防止做完了不给钱?
首先跟大家说明一点,我们做 IT 类的外包开发,是非标品开发,所以很有可能在开发过程中会有这样那样的需求修改,而这种需求修改很容易造成扯皮,进而影响到费用支付,甚至出现做完了项目收不到钱的情况。 那么,怎么保证自己的薪酬安全呢? 我们在开工前,一定要做好一些证据方面的准备(也就是“讨薪”的理论依据),这其中最重要的就是需求文档和验收标准。一定要让需求方提供这两个文档资料作为开发的基础。之后开发
网页实现一个简单的音乐播放器(大佬别看。(⊙﹏⊙))
今天闲着无事,就想写点东西。然后听了下歌,就打算写个播放器。 于是乎用h5 audio的加上js简单的播放器完工了。 欢迎 改进 留言。 演示地点跳到演示地点 html代码如下`&lt;!DOCTYPE html&gt; &lt;html&gt; &lt;head&gt; &lt;title&gt;music&lt;/title&gt; &lt;meta charset="utf-8"&gt
Python十大装B语法
Python 是一种代表简单思想的语言,其语法相对简单,很容易上手。不过,如果就此小视 Python 语法的精妙和深邃,那就大错特错了。本文精心筛选了最能展现 Python 语法之精妙的十个知识点,并附上详细的实例代码。如能在实战中融会贯通、灵活使用,必将使代码更为精炼、高效,同时也会极大提升代码B格,使之看上去更老练,读起来更优雅。 1. for - else 什么?不是 if 和 else 才
数据库优化 - SQL优化
前面一篇文章从实例的角度进行数据库优化,通过配置一些参数让数据库性能达到最优。但是一些“不好”的SQL也会导致数据库查询变慢,影响业务流程。本文从SQL角度进行数据库优化,提升SQL运行效率。 判断问题SQL 判断SQL是否有问题时可以通过两个表象进行判断: 系统级别表象 CPU消耗严重 IO等待严重 页面响应时间过长
2019年11月中国大陆编程语言排行榜
2019年11月2日,我统计了某招聘网站,获得有效程序员招聘数据9万条。针对招聘信息,提取编程语言关键字,并统计如下: 编程语言比例 rank pl_ percentage 1 java 33.62% 2 c/c++ 16.42% 3 c_sharp 12.82% 4 javascript 12.31% 5 python 7.93% 6 go 7.25% 7
通俗易懂地给女朋友讲:线程池的内部原理
餐厅的约会 餐盘在灯光的照耀下格外晶莹洁白,女朋友拿起红酒杯轻轻地抿了一小口,对我说:“经常听你说线程池,到底线程池到底是个什么原理?”我楞了一下,心里想女朋友今天是怎么了,怎么突然问出这么专业的问题,但做为一个专业人士在女朋友面前也不能露怯啊,想了一下便说:“我先给你讲讲我前同事老王的故事吧!” 大龄程序员老王 老王是一个已经北漂十多年的程序员,岁数大了,加班加不动了,升迁也无望,于是拿着手里
经典算法(5)杨辉三角
写在前面: 我是 扬帆向海,这个昵称来源于我的名字以及女朋友的名字。我热爱技术、热爱开源、热爱编程。技术是开源的、知识是共享的。 这博客是对自己学习的一点点总结及记录,如果您对 Java、算法 感兴趣,可以关注我的动态,我们一起学习。 用知识改变命运,让我们的家人过上更好的生活。 目录一、杨辉三角的介绍二、杨辉三角的算法思想三、代码实现1.第一种写法2.第二种写法 一、杨辉三角的介绍 百度
腾讯算法面试题:64匹马8个跑道需要多少轮才能选出最快的四匹?
昨天,有网友私信我,说去阿里面试,彻底的被打击到了。问了为什么网上大量使用ThreadLocal的源码都会加上private static?他被难住了,因为他从来都没有考虑过这个问题。无独有偶,今天笔者又发现有网友吐槽了一道腾讯的面试题,我们一起来看看。 腾讯算法面试题:64匹马8个跑道需要多少轮才能选出最快的四匹? 在互联网职场论坛,一名程序员发帖求助到。二面腾讯,其中一个算法题:64匹
面试官:你连RESTful都不知道我怎么敢要你?
面试官:了解RESTful吗? 我:听说过。 面试官:那什么是RESTful? 我:就是用起来很规范,挺好的 面试官:是RESTful挺好的,还是自我感觉挺好的 我:都挺好的。 面试官:… 把门关上。 我:… 要干嘛?先关上再说。 面试官:我说出去把门关上。 我:what ?,夺门而去 文章目录01 前言02 RESTful的来源03 RESTful6大原则1. C-S架构2. 无状态3.统一的接
为啥国人偏爱Mybatis,而老外喜欢Hibernate/JPA呢?
关于SQL和ORM的争论,永远都不会终止,我也一直在思考这个问题。昨天又跟群里的小伙伴进行了一番讨论,感触还是有一些,于是就有了今天这篇文。 声明:本文不会下关于Mybatis和JPA两个持久层框架哪个更好这样的结论。只是摆事实,讲道理,所以,请各位看官勿喷。 一、事件起因 关于Mybatis和JPA孰优孰劣的问题,争论已经很多年了。一直也没有结论,毕竟每个人的喜好和习惯是大不相同的。我也看
SQL-小白最佳入门sql查询一
一 说明 如果是初学者,建议去网上寻找安装Mysql的文章安装,以及使用navicat连接数据库,以后的示例基本是使用mysql数据库管理系统; 二 准备前提 需要建立一张学生表,列分别是id,名称,年龄,学生信息;本示例中文章篇幅原因SQL注释略; 建表语句: CREATE TABLE `student` ( `id` int(11) NOT NULL AUTO_INCREMENT, `
项目中的if else太多了,该怎么重构?
介绍 最近跟着公司的大佬开发了一款IM系统,类似QQ和微信哈,就是聊天软件。我们有一部分业务逻辑是这样的 if (msgType = "文本") { // dosomething } else if(msgType = "图片") { // doshomething } else if(msgType = "视频") { // doshomething } else { // dosho
“狗屁不通文章生成器”登顶GitHub热榜,分分钟写出万字形式主义大作
一、垃圾文字生成器介绍 最近在浏览GitHub的时候,发现了这样一个骨骼清奇的雷人项目,而且热度还特别高。 项目中文名:狗屁不通文章生成器 项目英文名:BullshitGenerator 根据作者的介绍,他是偶尔需要一些中文文字用于GUI开发时测试文本渲染,因此开发了这个废话生成器。但由于生成的废话实在是太过富于哲理,所以最近已经被小伙伴们给玩坏了。 他的文风可能是这样的: 你发现,
程序员:我终于知道post和get的区别
IT界知名的程序员曾说:对于那些月薪三万以下,自称IT工程师的码农们,其实我们从来没有把他们归为我们IT工程师的队伍。他们虽然总是以IT工程师自居,但只是他们一厢情愿罢了。 此话一出,不知激起了多少(码农)程序员的愤怒,却又无可奈何,于是码农问程序员。 码农:你知道get和post请求到底有什么区别? 程序员:你看这篇就知道了。 码农:你月薪三万了? 程序员:嗯。 码农:你是怎么做到的? 程序员:
《程序人生》系列-这个程序员只用了20行代码就拿了冠军
你知道的越多,你不知道的越多 点赞再看,养成习惯GitHub上已经开源https://github.com/JavaFamily,有一线大厂面试点脑图,欢迎Star和完善 前言 这一期不算《吊打面试官》系列的,所有没前言我直接开始。 絮叨 本来应该是没有这期的,看过我上期的小伙伴应该是知道的嘛,双十一比较忙嘛,要值班又要去帮忙拍摄年会的视频素材,还得搞个程序员一天的Vlog,还要写BU
加快推动区块链技术和产业创新发展,2019可信区块链峰会在京召开
      11月8日,由中国信息通信研究院、中国通信标准化协会、中国互联网协会、可信区块链推进计划联合主办,科技行者协办的2019可信区块链峰会将在北京悠唐皇冠假日酒店开幕。   区块链技术被认为是继蒸汽机、电力、互联网之后,下一代颠覆性的核心技术。如果说蒸汽机释放了人类的生产力,电力解决了人类基本的生活需求,互联网彻底改变了信息传递的方式,区块链作为构造信任的技术有重要的价值。   1
程序员把地府后台管理系统做出来了,还有3.0版本!12月7号最新消息:已在开发中有github地址
第一幕:缘起 听说阎王爷要做个生死簿后台管理系统,我们派去了一个程序员…… 996程序员做的梦: 第一场:团队招募 为了应对地府管理危机,阎王打算找“人”开发一套地府后台管理系统,于是就在地府总经办群中发了项目需求。 话说还是中国电信的信号好,地府都是满格,哈哈!!! 经常会有外行朋友问:看某网站做的不错,功能也简单,你帮忙做一下? 而这次,面对这样的需求,这个程序员
Android 9.0系统新特性,对刘海屏设备进行适配
其实Android 9.0系统已经是去年推出的“老”系统了,这个系统中新增了一个比较重要的特性,就是对刘海屏设备进行了支持。一直以来我也都有打算针对这个新特性好好地写一篇文章,但是为什么直到拖到了Android 10.0系统都发布了才开始写这篇文章呢?当然,一是因为我这段时间确实比较忙,今年几乎绝大部分的业余时间都放到写新书上了。但是最主要的原因并不是这个,而是因为刘海屏设备的适配存在一定的特殊性
网易云6亿用户音乐推荐算法
网易云音乐是音乐爱好者的集聚地,云音乐推荐系统致力于通过 AI 算法的落地,实现用户千人千面的个性化推荐,为用户带来不一样的听歌体验。 本次分享重点介绍 AI 算法在音乐推荐中的应用实践,以及在算法落地过程中遇到的挑战和解决方案。 将从如下两个部分展开: AI 算法在音乐推荐中的应用 音乐场景下的 AI 思考 从 2013 年 4 月正式上线至今,网易云音乐平台持续提供着:乐屏社区、UGC
【技巧总结】位运算装逼指南
位算法的效率有多快我就不说,不信你可以去用 10 亿个数据模拟一下,今天给大家讲一讲位运算的一些经典例子。不过,最重要的不是看懂了这些例子就好,而是要在以后多去运用位运算这些技巧,当然,采用位运算,也是可以装逼的,不信,你往下看。我会从最简单的讲起,一道比一道难度递增,不过居然是讲技巧,那么也不会太难,相信你分分钟看懂。 判断奇偶数 判断一个数是基于还是偶数,相信很多人都做过,一般的做法的代码如下
日均350000亿接入量,腾讯TubeMQ性能超过Kafka
整理 | 夕颜出品 | AI科技大本营(ID:rgznai100) 【导读】近日,腾讯开源动作不断,相继开源了分布式消息中间件TubeMQ,基于最主流的 OpenJDK8开发的
8年经验面试官详解 Java 面试秘诀
    作者 | 胡书敏 责编 | 刘静 出品 | CSDN(ID:CSDNnews) 本人目前在一家知名外企担任架构师,而且最近八年来,在多家外企和互联网公司担任Java技术面试官,前后累计面试了有两三百位候选人。在本文里,就将结合本人的面试经验,针对Java初学者、Java初级开发和Java开发,给出若干准备简历和准备面试的建议。   Java程序员准备和投递简历的实
面试官如何考察你的思维方式?
1.两种思维方式在求职面试中,经常会考察这种问题:北京有多少量特斯拉汽车? 某胡同口的煎饼摊一年能卖出多少个煎饼? 深圳有多少个产品经理? 一辆公交车里能装下多少个乒乓球? 一
相关热词 c# 二进制截断字符串 c#实现窗体设计器 c#检测是否为微信 c# plc s1200 c#里氏转换原则 c# 主界面 c# do loop c#存为组套 模板 c# 停掉协程 c# rgb 读取图片
立即提问