【cudaFree() failed. Reason: driver shutting down 】 5C

问题说明:
定义检测网络时,定义为全局变量会引发问题,但是定义为局部变量就没有这个问题。哪位大神遇到过类似情况,请求指教。。

//net_type detect_net;
//anet_type feature_net;

//示例代码:
#include
#include
#include
#include
//#include

#include

using namespace std;
using namespace dlib;

// ----------------------------------------------------------------------------------------
//hog face detecting

template class,int,typename> class block, int N, templateclass BN, typename SUBNET>
using residual = add_prev1>>;

template class,int,typename> class block, int N, templateclass BN, typename SUBNET>
using residual_down = add_prev2>>>>>;

template class BN, int stride, typename SUBNET>
using block = BN>>>>;

template using ares = relu>;
template using ares_down = relu>;

template using alevel0 = ares_down;
template using alevel1 = ares>>;
template using alevel2 = ares>>;
template using alevel3 = ares>>>;
template using alevel4 = ares>>;

using anet_type = loss_metric alevel0 alevel1 alevel2 alevel3 alevel4 max_pool input_rgb_image_sized
>>>>>>>>>>>>;

// ------------------------------------------------------------------------------------------------------------
// dnn face detecting

template using con5d = con;
template using con5 = con;

template using downsampler = relu>>>>>>>>;
template using rcon5 = relu>>;

using net_type = loss_mmod>>>>>>>;

// ------------------------------------------------------------------------------------------------------------
// define the global variable

//shape_predictor sp;
//net_type detect_net;
//anet_type feature_net;

void sc_face_recog_init();
void sc_face_recog_init()
{
/*
shape_predictor sp;
net_type detect_net;
anet_type feature_net;

*/

deserialize("mmod_human_face_detector.dat") >> detect_net;
deserialize("shape_predictor_5_face_landmarks.dat") >> sp;
deserialize("dlib_face_recognition_resnet_model_v1.dat") >> feature_net;

}

int main(int argc, char *argv[])
{
printf("hello\n\n\n\n");
//运行是出现错误 cudaFree() failed. Reason: driver shutting down
// cudaFreeHost() failed. Reason: driver shutting down
sc_face_recog_init();
detect_net.clean();

return 0;

}


3个回答

驱动缺少,不可以把他重复使用

jobbofhe
jobbofhe 将全局变量 修改为局部变量,之后就不会有这样的问题了。
接近 2 年之前 回复
jobbofhe
jobbofhe 缺少什么驱动呢? 需要怎么修改啊?你知道吗?
接近 2 年之前 回复

缺少什么驱动呢? 需要怎么修改啊?

应该是缺少驱动导致的

jobbofhe
jobbofhe 请问是缺少什么驱动尼? 使用局部变量不会出现这个情况啊
接近 2 年之前 回复
Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
在VS2010中调试CUDA程序时总是出现以下问题
1>1.cu.obj : error LNK2019: 无法解析的外部符号 cublasDestroy_v2,该符号在函数 main 中被引用 1>1.cu.obj : error LNK2019: 无法解析的外部符号 cudaFree,该符号在函数 main 中被引用 1>1.cu.obj : error LNK2019: 无法解析的外部符号 cublasGetVector,该符号在函数 main 中被引用 1>1.cu.obj : error LNK2019: 无法解析的外部符号 cublasSgemm_v2,该符号在函数 main 中被引用 1>1.cu.obj : error LNK2019: 无法解析的外部符号 cudaThreadSynchronize,该符号在函数 main 中被引用 1>1.cu.obj : error LNK2019: 无法解析的外部符号 cublasSetVector,该符号在函数 main 中被引用 1>1.cu.obj : error LNK2019: 无法解析的外部符号 cudaMalloc,该符号在函数 main 中被引用 1>1.cu.obj : error LNK2019: 无法解析的外部符号 cublasCreate_v2,该符号在函数 main 中被引用 1>1.cu.obj : error LNK2019: 无法解析的外部符号 __cudaRegisterFatBinary,该符号在函数 "void __cdecl __sti____cudaRegisterAll_36_tmpxft_00001474_00000000_5_1_cpp1_ii_main(void)" (?__sti____cudaRegisterAll_36_tmpxft_00001474_00000000_5_1_cpp1_ii_main@@YAXXZ) 中被引用 1>1.cu.obj : error LNK2019: 无法解析的外部符号 __cudaUnregisterFatBinary,该符号在函数 "void __cdecl __cudaUnregisterBinaryUtil(void)" (?__cudaUnregisterBinaryUtil@@YAXXZ) 中被引用 1>E:\Program exercise\1\x64\Debug\1.exe : fatal error LNK1120: 10 个无法解析的外部命令 1> 1>生成失败。 请各位版主指导一下!
VS2010 error LNK2019: 无法解析的外部符号
程序如下: #include <stdlib.h> #include <stdio.h> #include <opencv/cv.h> #include <opencv/highgui.h> #include <opencv2/opencv.hpp> #include <math.h> #include <iostream> #include<opencv2/imgproc/imgproc.hpp> #include <opencv2/core/core.hpp> #include "cuda_runtime.h" #include "device_launch_parameters.h" #include "cuda_runtime.h" #include <assert.h> #include <cufft.h> #include "ImgPro_cu.cU" using namespace std; using namespace cv; extern "C" double cudaMSR_RGB( BYTE* pImgOut, BYTE* pImgIn, int nWidth, int nHeight, int nWidthStep) { int FilterWidth = nWidth; int FilterHeight = nHeight; float sigma = 300; int DataBits = 8; int fftW = nWidth; int fftH = nHeight; float *h_pDataSrcRGB = NULL; float *h_pDataDst= NULL; float *h_pKernel= NULL; float *d_Kernel= NULL; float *d_DataSrc= NULL; float *d_DataDst= NULL; fComplex *d_DataSpectrum; fComplex *d_KernelSpectrum; h_pDataSrcRGB = (float*)malloc(nWidth*nHeight*sizeof(float)); h_pDataDst = (float*)malloc(nWidth*nHeight*sizeof(float)); h_pKernel = (float*)malloc(FilterWidth*FilterHeight*sizeof(float)); cudaMalloc((void **)&d_Kernel, FilterWidth*FilterHeight*sizeof(float)); cudaMalloc((void **)&d_DataSrc,nWidth*nHeight*sizeof(float) ); cudaMalloc((void **)&d_DataDst,nWidth*nHeight*sizeof(float) ); cudaMalloc((void **)&d_DataSpectrum , fftH*(fftW/2+1)*sizeof(fComplex) ); cudaMalloc((void **)&d_KernelSpectrum, fftH*(fftW/2+1)*sizeof(fComplex) ); memset(h_pDataSrcRGB,0,nWidth*nHeight*sizeof(float)); memset(h_pDataDst, 0, nWidth*nHeight*sizeof(float)); memset(h_pKernel , 0, FilterWidth*FilterHeight*sizeof(float)); cudaMemset(d_Kernel, 0, FilterWidth*FilterHeight*sizeof(float)); cudaMemset(d_DataSrc, 0, nWidth*nHeight*sizeof(float)); cudaMemset(d_DataDst, 0, nWidth*nHeight*sizeof(float)); cudaMemset(d_DataSpectrum , 0, fftH*(fftW/2+1)*sizeof(fComplex)); cudaMemset(d_KernelSpectrum, 0, fftH*(fftW/2+1)*sizeof(fComplex)); //产生高斯滤波器 GaussFilter(h_pKernel, sigma, FilterWidth, FilterHeight); //定义傅里叶变换 cufftHandle fftPlanFwd, fftPlanInv; cufftPlan2d(&fftPlanFwd, nHeight, nWidth, CUFFT_R2C); cufftPlan2d(&fftPlanInv, nHeight, nWidth, CUFFT_C2R); //计时开始 clock_t start, finish; double dDuration = 0.0; start = clock(); for (int i_Channel = 1;i_Channel<=3;i_Channel++) { for (int y = 0; y < nHeight; y++) { for (int x=0;x<nWidth;x++) { h_pDataSrcRGB[y * nWidth + x ] = pImgIn[y * nWidthStep + 3*x + i_Channel];//RGB三个通道 } } cudaMemcpy(d_DataSrc, h_pDataSrcRGB, nWidth*nHeight*sizeof(float), cudaMemcpyHostToDevice); cudaMemcpy(d_Kernel, h_pKernel, nWidth*nHeight*sizeof(float), cudaMemcpyHostToDevice); //执行傅里叶正变换 cufftExecR2C(fftPlanFwd, d_DataSrc, (cufftComplex *)d_DataSpectrum); cufftExecR2C(fftPlanFwd, d_Kernel , (cufftComplex *)d_KernelSpectrum); //频域数据点乘 modulateAndNormalize(d_DataSpectrum, d_KernelSpectrum, fftH, fftW); //执行傅里叶逆变换 cufftExecC2R(fftPlanInv, (cufftComplex *)d_DataSpectrum, d_DataDst); //图像高频增强 High_Frequency_Enhancer(d_DataDst, d_DataSrc, nWidth, nHeight); //图像灰度拉伸映射 cudaMemcpy(d_DataSrc, d_DataDst, nWidth*nHeight*sizeof(float), cudaMemcpyDeviceToDevice); float Vmax = GetMaxValue(d_DataSrc, nWidth*nHeight); cudaMemcpy(d_DataSrc, d_DataDst, nWidth*nHeight*sizeof(float), cudaMemcpyDeviceToDevice); float Vmin = GetMinValue(d_DataSrc, nWidth*nHeight); GrayReset(d_DataDst, d_DataDst, nWidth, nHeight, Vmax, Vmin, DataBits); cudaMemcpy(h_pDataDst, d_DataDst, nWidth*nHeight*sizeof(float), cudaMemcpyDeviceToHost); for (int x=0;x<nWidth*nHeight;x++) { pImgOut[3*x+i_Channel] = h_pDataDst[x] ;//RGB三个通道 } } //计时结束 finish = clock(); dDuration = (double)(finish - start) / CLOCKS_PER_SEC; cufftDestroy(fftPlanFwd); cufftDestroy(fftPlanInv); free(h_pDataSrcRGB); free(h_pDataDst); free(h_pKernel); cudaFree(d_DataSrc); cudaFree(d_DataDst); cudaFree(d_Kernel); cudaFree(d_DataSpectrum); cudaFree(d_KernelSpectrum); return dDuration; } int main() { IplImage *src = cvLoadImage("22.jpg"); IplImage *dst = cvCloneImage( src ); BYTE* srcdata = (BYTE *) src->imageData; int nWidth = src->width; int nHeight = src->height; int nWidthStep = src->widthStep; BYTE* dstdata = (BYTE *) dst->imageData; cudaMSR_RGB(srcdata, dstdata,nWidth,nHeight,nWidthStep); cvNamedWindow("原画",0); cvShowImage("原画",src); cvNamedWindow("色彩还原",0); cvShowImage("色彩还原",dst); cvWaitKey(0); cvDestroyAllWindows(); cvReleaseImage(&src); } 运行后显示如下: 1>Laplacian.cu.obj : error LNK2019: 无法解析的外部符号 _cufftDestroy@4,该符号在函数 "void __cdecl ConvolutionFFT(float *,float *,float *,int,int,int,int)" (?ConvolutionFFT@@YAXPAM00HHHH@Z) 中被引用 1>Laplacian.cu.obj : error LNK2019: 无法解析的外部符号 _cufftExecC2R@12,该符号在函数 "void __cdecl ConvolutionFFT(float *,float *,float *,int,int,int,int)" (?ConvolutionFFT@@YAXPAM00HHHH@Z) 中被引用 1>Laplacian.cu.obj : error LNK2019: 无法解析的外部符号 _cufftExecR2C@12,该符号在函数 "void __cdecl ConvolutionFFT(float *,float *,float *,int,int,int,int)" (?ConvolutionFFT@@YAXPAM00HHHH@Z) 中被引用 1>Laplacian.cu.obj : error LNK2019: 无法解析的外部符号 _cufftPlan2d@16,该符号在函数 "void __cdecl ConvolutionFFT(float *,float *,float *,int,int,int,int)" (?ConvolutionFFT@@YAXPAM00HHHH@Z) 中被引用 1>C:\Users\Xu\Desktop\Laplacian\Vibe\Debug\Laplacian.exe : fatal error LNK1120: 4 个无法解析的外部命令 求问大神怎么解决这个问题。万分感谢
cuda 报错 CUDA_ERROR_LAUNCH_FAILED
template<typename T> __global__ void pooling_max_kernel (T* pooled, const T* data, const T* stochastic_value, const int mode, const int pooledWidth, const int pooledHeight, const int pooledVolume, const int width, const int height, const int poolWidth, const int poolHeight, const int strideX, const int strideY, const int padLeft, const int padTop) { int pooledIndex = threadIdx.x + blockIdx.x * blockDim.x; int stochastic_value_index=0; if (pooledIndex < pooledVolume) { int px = pooledIndex ; int py = px / pooledWidth ; int pz = py / pooledHeight ; px %= pooledWidth ; py %= pooledHeight ; data += pz * (width*height) ; int x1 = px * strideX - padLeft ; int y1 = py * strideY - padTop ; int x2 = min(x1 + poolWidth, width) ; int y2 = min(y1 + poolHeight, height) ; x1 = max(x1, 0) ; y1 = max(y1, 0) ; //T *savedata;T *dataprob; //cudaMalloc((void**)&savedata,sizeof(T)*9);cudaMalloc((void**)&dataprob,sizeof(T)*9);/////////////////////////////////////////////////定义变量分配内存 T savedata[9]={0};T dataprob[10]={0};dataprob[0]=0; T sumdata=0;T weightsum=0;int i=0;/////////////////////////////lyz //T bestValue = data[y1 * width + x1] ; for (int y = y1 ; y < y2 ; ++y) { for (int x = x1 ; x < x2 ; ++x) { //bestValue = max(bestValue, data[y * width + x]) ; savedata[i]=data[y * width + x]; sumdata=sumdata+data[y * width + x]; i=i+1; if (i>8) {i=0;} } } if(mode==0) { T randdata = stochastic_value[pooledIndex]; if (sumdata>0) { for(int j=0;j<poolWidth*poolHeight;++j) { dataprob[j+1]=dataprob[j]+savedata[j]/sumdata; if (randdata<dataprob[j+1]) { stochastic_value_index=j; break; } } pooled[pooledIndex] = savedata[stochastic_value_index] ; } else { pooled[pooledIndex] = 0 ; } } else { if (sumdata>0) { for(int j=0;j<poolWidth*poolHeight;++j) { weightsum=weightsum+savedata[j]*savedata[j]/sumdata; } pooled[pooledIndex] = weightsum ; } else { pooled[pooledIndex] = 0 ; } } //cudaFree(savedata);cudaFree(dataprob); } } 另,在kernel函数中定义变量需要分配内存吗,我之前用注释掉的那个分配内存,编译的时候回报错
调用CUDA API使用GPU运算一个JuliaSet花费的时间比在CPU上多
我用的是《GPU高性能编程CUDA实战》第四章最后的一个例子,在CPU上花费的时间700+ms,在GPU上花费的时间是800+ms ``` // CPU版本代码 void kernel(unsigned char * ptr) { for (size_t y = 0; y < DIM; y++) for (size_t x = 0; x < DIM; x++) { int offset = x + y*DIM; int juliaValue = julia(x, y); ptr[offset * 4 + 0] = 255 * juliaValue; ptr[offset * 4 + 1] = 0; ptr[offset * 4 + 2] = 0; ptr[offset * 4 + 3] = 255; } } int main(void) { clock_t start, finish; double totaltime; start = clock(); CPUBitmap bitmap(DIM, DIM); unsigned char *ptr = bitmap.get_ptr(); kernel(ptr); finish = clock(); totaltime = (double)(finish - start) / CLOCKS_PER_SEC; printf("time : %fs\n", float(totaltime)); bitmap.display_and_exit(); return 0; } ``` --- ``` // GPU版本代码 #define DIM 1000 struct cuComplex { float r; float i; __device__ cuComplex(float a, float b) : r(a), i(b) {} __device__ float magnitude2(void) { return r * r + i * i; } __device__ cuComplex operator*(const cuComplex& a) { return cuComplex(r*a.r - i*a.i, i*a.r + r*a.i); } __device__ cuComplex operator+(const cuComplex& a) { return cuComplex(r + a.r, i + a.i); } }; __device__ int julia(int x, int y) { const float scale = 1.5; float jx = scale * (float)(DIM / 2 - x) / (DIM / 2); float jy = scale * (float)(DIM / 2 - y) / (DIM / 2); cuComplex c(-0.8, 0.156); cuComplex a(jx, jy); for (size_t i = 0; i < 200; i++) { a = a*a + c; if (a.magnitude2() > 1000) return 0; } return 1; } __global__ void kernel(unsigned char * ptr) { // 将threadIdx/BlockIdx映射到像素位置 int x = blockIdx.x; int y = blockIdx.y; int offset = x + y*gridDim.x; // 计算对应位置上的值 int juliaValue = julia(x, y); ptr[offset * 4 + 0] = 255 * juliaValue; ptr[offset * 4 + 1] = 0; ptr[offset * 4 + 2] = 0; ptr[offset * 4 + 3] = 255; } int main(void) { clock_t start, finish; double totaltime; start = clock(); CPUBitmap bitmap(DIM, DIM); unsigned char *dev_bitmap; cudaMalloc((void **)&dev_bitmap, bitmap.image_size()); dim3 grid(DIM, DIM); kernel<< <grid, 1 >> >(dev_bitmap); cudaMemcpy(bitmap.get_ptr(), dev_bitmap, bitmap.image_size(), cudaMemcpyDeviceToHost); cudaFree(dev_bitmap); finish = clock(); totaltime = (double)(finish - start) / CLOCKS_PER_SEC; printf("time : %fs\n", float(totaltime)); bitmap.display_and_exit(); return 0; } ``` 运行结果是这张图片 ![图片说明](https://img-ask.csdn.net/upload/201905/28/1559043843_740633.png) 熟悉CUDA编程的大神能否解释一下为什么使用GPU并行计算花费的时间反而跟多? 配置是i7-8700 + GTX1060 6G
CUDA-GPU加速-中值滤波-黑屏+显卡程序崩溃
新手刚接触CUDA C,这段中值滤波的代码一直跑不通,如果读取一张小图片(2790,2560)没有问题,如果读取一张大图片(5580,5120),就会导致黑屏+没有结果。 我的显卡是NVIDIA Geforce 820M ``` #include <iostream> #include "ImMedFilter.h" #define DIM_GRID 128 #define DIM_BLOCK 16 using namespace std; __device__ void mid(unsigned char* data, int size, int midIndex) { unsigned char temp = 0; for (int i = 0; i <= midIndex; i++) { for (int j = i+1; j < size; j++) { if (data[j] > data[i]) { temp = data[i]; data[i] = data[j]; data[j] = temp; } } } } __global__ void global_ZhongSmooth(unsigned char *dev_src, unsigned char *dev_dst, int width , int height, int bytesPerLine, int size, int markSize) { int x = threadIdx.x + blockIdx.x*blockDim.x; int y = threadIdx.y + blockIdx.y*blockDim.y; int step_x = blockDim.x * gridDim.x; int step_y = blockDim.y * gridDim.y; for (int t_y = y; t_y < height - markSize; t_y = t_y + step_y) { if (t_y < markSize || t_y > height-markSize-1) { continue; } for (int t_x = x; t_x < width - markSize; t_x = t_x + step_x) { if (t_x < markSize || t_x > width-markSize-1) { continue; } unsigned int index = t_x + t_y*width; if( index < size ) { unsigned char len = (markSize*2+1)*(markSize*2+1); unsigned char midIndex = len/2; // 创建保存中值区域的数组 // size = (marksize * 2 + 1) ^ 2; // 滤波大小:3、5、7、9、...、29、31 unsigned char*a = NULL; switch (markSize) { case 1: unsigned char c[9]; a = c; break; case 2: unsigned char d[25]; a = d; break; case 3: unsigned char e[49]; a = e; break; case 4: unsigned char f[81]; a = f; break; case 5: unsigned char g[121]; a = g; break; case 6: unsigned char h[169]; a = h; break; case 7: unsigned char v[225]; a = v; break; case 8: unsigned char w[289]; a = w; break; case 9: unsigned char x[361]; a = x; break; case 10: unsigned char z[441]; a = z; break; case 11: unsigned char u[529]; a = u; break; case 12: unsigned char q[625]; a = q; break; case 13: unsigned char i[729]; a = i; break; case 14: unsigned char o[841]; a = o; break; default: return; } unsigned char k = 0; for (int i = -markSize; i <= markSize; i++) { for (int j = -markSize; j <= markSize; j++) { a[k++] = dev_src[t_x+j+(t_y+i)*width]; } } mid(a, len, midIndex); dev_dst[index] = a[midIndex]; } } } } extern "C" void ImMedfilter(const unsigned char *host_src, unsigned char *host_dst, int width, int height, int bytesPerLine, int markSize) { int dataSize = bytesPerLine * height; unsigned char *dev_src = NULL; unsigned char *dev_dst = NULL; cudaMalloc((void**) &dev_src, dataSize); cudaMalloc((void**) &dev_dst, dataSize); cudaMemset(dev_dst, 0, dataSize); cudaMemcpy(dev_src, host_src, dataSize, cudaMemcpyHostToDevice); dim3 blocks(DIM_BLOCK, DIM_BLOCK); dim3 grids(DIM_GRID, DIM_GRID); global_ZhongSmooth<<<grids, blocks>>>(dev_src, dev_dst, width, height, bytesPerLine, dataSize, markSize); cudaMemcpy(host_dst, dev_dst, dataSize, cudaMemcpyDeviceToHost); cudaFree(dev_src); cudaFree(dev_dst); } ```
cuda向设备端传递多个一维数组,并在核函数修改数组元素值
现在有多个一维数组,我想将他们拷贝到设备端修改他们的值,然后拷贝回host端,代码如下: #include "cuda_runtime.h" #include "device_launch_parameters.h" #include "helper_cuda.h" #include <stdio.h> #include<iostream> using namespace std; #define N 10 __global__ void gpuKernel(int **ptr) { int tid=threadIdx.x; int bid=blockIdx.x; if (tid<N &&bid<N) { ptr[bid][tid]=N; } } int main() { int **hptr,**hostArray; int **dptr,**devArray; hptr=new int *[N]; cudaMalloc(&dptr,N*sizeof(int*)); hostArray=new int *[N]; devArray=new int *[N]; for (int i=0;i<N;i++) { hostArray[i]=new int[N]; for (int j=0;j<N;j++) { hostArray[i][j]=1; } } for (int i=0;i<N;i++) { cudaMemcpy(devArray[i],hostArray[i],N*sizeof(int),cudaMemcpyHostToDevice); hptr[i]=devArray[i];//保存每个数组的头指针 } cudaMemcpy(dptr,hptr,N*sizeof(int*),cudaMemcpyHostToDevice); dim3 dimblock=N; dim3 dimgrid =N; gpuKernel<<<dimgrid,dimblock>>>(dptr); for (int i=0;i<N;i++) { cudaMemcpy(hostArray[i],devArray[i],N*sizeof(int),cudaMemcpyDeviceToHost); } for (int i=0;i<N;i++) { for (int j=0;j<N;j++) { cout<<hostArray[i][j]<<","; } cout<<endl; } //free memory for (int i=0;i<N;i++) { delete []hostArray[i]; cudaFree(devArray[i]); } cudaFree(dptr); /*cudaFree(devArray);*/ delete[]hptr; delete []hostArray; delete[]devArray; return 0; } 最终结果是元素值都为修改,纠结这个问题几天了,并且仔细拜读bendanban大神的博客http://blog.csdn.net/bendanban/article/details/7669624,可能自己理解有误,望各位大神指点
vs2008+cuda5.0环境下运行cuda代码,在调试时总发生异常(0xC0000005: 读取位置 时发生访问冲突)
问题截图: ![图片说明](https://img-ask.csdn.net/upload/201904/02/1554170610_506664.png) 1、该异常经常发生,包括来自《cuda高性能编程 cuda实战》书中的代码,自己写的一些代码等。但是不是一定会发生。 2、调试时发现,异常产生的位置都是在主函数中,当调用了cudaMalloc函数分配内存后,接着调用第二个cuda函数时就会出现该异常,比如用cudaMalloc为第二个变量分配内存,或是用cudaMemcpy向GPU复制数据。 举个例子: 这段代码没有问题(只为一个数组分配了内存并在核函数中计算) ``` #include <stdio.h> #include <malloc.h> #include <cuda_runtime_api.h> #include "device_launch_parameters.h" #define type float __global__ void myKernel(type* d_a, int height, int width, int pitch) //四个形参:数组名,高,行宽,行字节数 { int tx = blockDim.x * blockIdx.x + threadIdx.x; int ty = blockDim.y * blockIdx.y + threadIdx.y; if( tx<width && ty<(height) ) d_a[ty*width+tx] *= 10; } int main() { // 定义参数:高、宽、数组 size_t width = 16; size_t height = 10; type *h_a; type *d_a; type *d_b; size_t pitch; // 分配主机内存 h_a = (type *)malloc(sizeof(type)*width*height); //h_data 分配内存:宽*高 // 数组初始化 for (int i = 0; i < width*height; i++) h_a[i] = (type)i; // 分配GPU内存,并复制数组到GPU cudaMallocPitch((void **)&d_a, &pitch, sizeof(type)*width, height); cudaMemcpy2D(d_a, pitch, h_a, sizeof(type)*width, sizeof(type)*width, height, cudaMemcpyHostToDevice); // printf("\nPitch = %d B\n", pitch); cudaMalloc((void **)&d_b, sizeof(type)*width); //分配二维线程 dim3 threadsPerBlock(8,8); dim3 blocksPerGrid((width+threadsPerBlock.x-1)/threadsPerBlock.x,(height+threadsPerBlock.y-1)/threadsPerBlock.y); // +threadsPerBlock.x-1 //核函数执行 myKernel <<< blocksPerGrid ,threadsPerBlock >>> (d_a, height, width, pitch); //参数:d_data,高度,行宽,行字节数 cudaDeviceSynchronize(); //复制数组回CPU cudaMemcpy2D(h_a, sizeof(type)*width, d_a, pitch, sizeof(type)*width, height, cudaMemcpyDeviceToHost); for (int i = width*(height - 10); i < width*height; i++) { printf("%10.2f", h_a[i]); if ((i + 1) % width == 0) printf("\n"); } free(h_a); cudaFree(d_a); getchar(); return 0; } ``` 在这个基础上改了之后,变为为三个变量分配内存并在核函数中计算就发生问题了。 ``` #include <stdio.h> #include <malloc.h> #include <cuda_runtime_api.h> #include "device_launch_parameters.h" #define type float __global__ void myKernel(type* d_a, type* d_b, type* d_c, int height, int width, int pitch) //四个形参:数组名,高,行宽,行字节数 { int tx = blockDim.x * blockIdx.x + threadIdx.x; int ty = blockDim.y * blockIdx.y + threadIdx.y; if( tx<width && ty<height ) d_c[ty*width+tx] = pow( d_b[ty*width+tx] - d_a[ty*width+tx] , 2 ); } int main() { // 定义参数:高、宽、数组 size_t width = 160; size_t height = 16; type *h_a, *h_b, *h_c; // 一维数组 h_data 和 d_data 。。既该二维数组的存储形式,在cpu和gpu都是一维数组 type *d_a, *d_b, *d_c; size_t pitch; // 分配主机内存 h_a = (type *)malloc(sizeof(type)*width*height); //h_data 分配内存:宽*高 h_b = (type *)malloc(sizeof(type)*width*height); h_c = (type *)malloc(sizeof(type)*width*height); // 数组初始化 for (int i = 0; i < width*height; i++) h_a[i] = h_b[i] = (type)i; // 分配GPU内存,并复制数组到GPU cudaMallocPitch((void **)&d_a, &pitch, sizeof(type)*width, height); //分配gpu内存:d_data 数组名地址,pitch地址,行字节数,高度 cudaMallocPitch((void **)&d_b, &pitch, sizeof(type)*width, height); cudaMallocPitch((void **)&d_c, &pitch, sizeof(type)*width, height); printf("\nPitch = %d B\n", pitch); cudaMemcpy2D(d_b, pitch, h_b, sizeof(type)*width, sizeof(type)*width, height, cudaMemcpyHostToDevice); cudaMemcpy2D(d_a, pitch, h_a, sizeof(type)*width, sizeof(type)*width, height, cudaMemcpyHostToDevice); //目标数组名,目标行字节数,原数组名,源行字节数,数组实际行字节数,高 //分配二维线程 dim3 threadsPerBlock(8,8); dim3 blocksPerGrid((width+threadsPerBlock.x-1)/threadsPerBlock.x,(height+threadsPerBlock.y-1)/threadsPerBlock.y); // +threadsPerBlock.x-1 //核函数执行 myKernel <<< blocksPerGrid ,threadsPerBlock >>> (d_a, d_b, d_c, height, width, pitch); //参数:d_data,高度,行宽,行字节数 cudaDeviceSynchronize(); //一个同步函数。该方法将停止CPU端线程的执行,直到GPU端完成之前CUDA的任务,包括kernel函数、数据拷贝等。 //复制数组回CPU cudaMemcpy2D(h_c, sizeof(type)*width, d_c, pitch, sizeof(type)*width, height, cudaMemcpyDeviceToHost); for (int i = width*(height - 10); i < width*height; i++) { printf("%10.2f", h_c[i]); if ((i + 1) % width == 0) printf("\n"); } free(h_a); free(h_b); free(h_c); cudaFree(d_a); cudaFree(d_b); cudaFree(d_c); getchar(); return 0; } ```
cuda cudaMemcpy 报错 unkown error
我是一个cuda新手,现在在测试一个程序,它报的错误是 unkown error ,是从最后的cudaMemcpy报出来的,求高人指教,我不知道是错在哪里了,在此谢过 #include "cuda_runtime.h" #include "device_launch_parameters.h" #include <stdio.h> #include <time.h> #define N (128*128*2) __global__ void times(int *div_c) { int tmp = threadIdx.x+ blockIdx.x*blockDim.x; while(tmp<N) { div_c[tmp]=tmp; tmp+=blockIdx.x*gridDim.x; } } int main(void) { int c[N]; int i; clock_t t; int *div_c; cudaError_t error; for(i=0;i<N;++i) { c[i]=0; if(c[i]!=0) { printf("error4"); } } printf("start\n"); t=clock(); error=cudaMalloc((void **)&div_c,sizeof(int)*N); if(error!=cudaSuccess) { printf("error1"); getchar(); return 1; } error = cudaMemcpy(div_c,c,sizeof(int)*N,cudaMemcpyHostToDevice); if(error!=cudaSuccess) { printf("error2"); getchar(); return 1; } times<<<128,128>>>(div_c); error = cudaMemcpy(c,div_c,sizeof(int)*N,cudaMemcpyDeviceToHost); if(error!=cudaSuccess) { printf("%s\n",cudaGetErrorString(error)); getchar(); return 1; } t= clock()-t; printf("%d\n",t); getchar(); printf("%d\n",c[0]); getchar(); for(i=0;i<N-1;++i) { printf("%d %d \n",c[i],c[i+1]); } getchar(); return 0; cudaFree(div_c); }
cuda环境装上之后核函数<<<>>>内的参数总是有问题
#include "cuda_runtime.h" #include "device_launch_parameters.h" #include<iostream> using namespace std; #define N 10 __global__ void add(const int *a, const int *b, int *c){ int tid = blockIdx.x; if (tid < N){ c[tid] = a[tid] + b[tid]; } } int main(){ int a[N], b[N], c[N]; int *dev_a, *dev_b, *dev_c; cudaMalloc((void**)&dev_a, N*sizeof(int)); cudaMalloc((void**)&dev_b, N*sizeof(int)); cudaMalloc((void**)&dev_c, N*sizeof(int)); for (int i = 0; i < N; i++){ a[i] = -i; b[i] = i*i; } cudaMemcpy(dev_a, a, N*sizeof(int), cudaMemcpyHostToDevice); cudaMemcpy(dev_b, b, N*sizeof(int), cudaMemcpyHostToDevice); add<<<1,1>>>(dev_a,dev_b, dev_c); cudaMemcpy(c, dev_c, N*sizeof(int), cudaMemcpyHostToDevice); for (int i = 0; i < N; i++){ printf("%d+%d=%d\n",a[i], b[i], c[i]); } cudaFree(dev_a); cudaFree(dev_b); cudaFree(dev_c); return 0; } 提示 add<<<1,1>>>(dev_a,dev_b, dev_c);语句的第一个“1”要输入表达式
CUDA runtimeAPI 第一次使用 耗时严重(release下)
我的程序在启动时,用到了几个cuda的库,第一次调用cudamalloc或者cudafree这样的 操作内存的函数时会耗时十几秒到几十秒。怎么办? 我看网上的说cuda使用时没有专门的init函数和设置,第一次使用时就在内部初始化了。 但是我的问题怎么解决? 尤其是当我加上一个拼接的函数时,用到了 opencv_cudaarithm310.dll opencv_cudabgsegm310.dll opencv_cudafeatures2d310.dll opencv_cudafilters310.dll opencv_cudalegacy310.dll opencv_cudaobjdetect310.dll opencv_ml310.dll opencv_stitching310.dll (主要是用到了这个,前面的是它附带出来的) 求大神搭救一下。
VS2013+CUDA无法命中断点
这是一个简单的程序,在GPU上申请长度为5个int型的buffer,其他什么都没有做。 ``` #include "cuda_runtime.h" #include "device_launch_parameters.h" #include <iostream> using namespace std; int main() { int *dev_buf = 0; cudaError_t cudaStatus; cudaStatus = cudaSetDevice(0);//选择GPU if (cudaStatus != cudaSuccess) { cout << "GPU设置错误\n"; goto Error; } cudaStatus = cudaMalloc((void**)&dev_buf, 5 * sizeof(int));//申请空间 cudaStatus = cudaDeviceReset();//结束,GPU重置 if (cudaStatus != cudaSuccess) { cout<<"GPU重置错误"; return 1; } Error: cudaFree(dev_buf); return 0; } ``` 在调试时,出现了很奇怪的现象,在第10行,cudaStatus 已经等于 cudaSuccess,但单步调试还是进入if后面{}内,但只经过了goto这一行,但却没有转跳。继续单步直接越过15行,到了16行。如果直接把断点设置在15行,启动调试时,断点就自动跳到16行了。然而程序的确给dev_buf分配了显存,程序运行正常。反复尝试发现,程序中第一次出现的cudaMalloc()函数无法命中断点,且对前面语句产生影响,如果程序里再出现一个或多个cudaMalloc,一切单步调试正常。以为是代码与程序不一致,网上找了各种设置,均无效。CUDA版本是7.5,新手,请各位大牛指教。万分感激。
初学cuda,简单程序无输出结果
#include "cuda_runtime.h" #include "device_launch_parameters.h" #include<stdio.h> #include<stdlib.h> #include<windows.h> typedef struct { BYTE r; BYTE b; BYTE g; }RGB; __global__ void func(BYTE *gray, RGB img[][500], int width) { int i = threadIdx.x; for (int j = 0; j < width; j++) { gray[(img[i][j].r * 38 + img[i][j].g * 75 + img[i][j].b * 15) >> 7]++; } } int main() { BITMAPFILEHEADER fileHeader; BITMAPINFOHEADER infoHeader; FILE* pfin; BYTE gray[256] = { 0 }; RGB img[256][256] = { 0 }; cudaError_t cudaStatus; pfin = fopen("1.bmp", "rb"); //ReadtheBitmapfileheader; fread(&fileHeader, sizeof(BITMAPFILEHEADER), 1, pfin); //ReadtheBitmapinfoheader; fread(&infoHeader, sizeof(BITMAPINFOHEADER), 1, pfin); //the size of the picture int size = infoHeader.biWidth*infoHeader.biHeight; //read the file fread(img, sizeof(RGB), size, pfin); int width = infoHeader.biWidth; BYTE *dev_gray; cudaMalloc((void **)&dev_gray,width*sizeof(BYTE)); func<<<1,width>>>(dev_gray, img, width); cudaMemcpy(gray, dev_gray, width*sizeof(BYTE),cudaMemcpyDeviceToHost); cudaFree(dev_gray); getchar(); return 0; } 想要的结果是结果在gray数组中 但无结果 是内存的问题还是什么问题 应该如何修改呢
CUDA中使用VisualProfiler进行优化遇到这样一个问题,该怎么解决?
对于VisualProfiler的使用,新建NewSession,在File处选择已经编译好后出现的.exe文件, 然后点next,点finish后出现如图所示错误: ![图片说明](https://img-ask.csdn.net/upload/201811/29/1543505402_210956.png) 问题描述为:The application being profiled returned a non-zero return code. 百度翻译为:正在被配置的应用程序返回非零返回代码。 通过网上搜寻,可能的解决办法是: 1.内存没释放完全 2.主函数末尾需要添加cudaThreadExit(); 3.主函数末尾添加cudaFree(0); 如果上述解决办法,解决了,我是不会来这里提问的。 问题就是没有解决!!! 其中,我用一段HelloWorld.cu测试,可以使用VisualProfiler ``` //使用CUDA的第一个独立编程。简要使用CUDA。 //功能:从主机向设备传入数组a、b,计算a、b数组的和,传入数组c中,再传回主机。 #include<stdio.h> #include<stdlib.h> #include<cuda_runtime.h> #include "device_launch_parameters.h" #define N 200000 __global__ void Add(int *d_a, int *d_b, int *d_c); int main() { int *a = (int*)malloc(sizeof(int)*N); int *b = (int*)malloc(sizeof(int)*N); int *c = (int*)malloc(sizeof(int)*N); //CPU计算 for (int i = 0; i < N; i++) { a[i] = i; b[i] = i; c[i] = a[i] + b[i]; } printf("CPU : c[N-1] = %d\n", c[N - 1]); for (int i = 0; i < N; i++) { c[i] = 0; } printf("c[N-1] = %d\n", c[N - 1]); int *d_a; int *d_b; int *d_c; cudaMalloc((void**)&d_a, sizeof(int)*N); cudaMalloc((void**)&d_b, sizeof(int)*N); cudaMalloc((void**)&d_c, sizeof(int)*N); dim3 block_add((N + 256 - 1) / 256, 1); dim3 thread_add(256, 1); cudaEvent_t start, stop; cudaEventCreate(&start); cudaEventCreate(&stop); cudaEventRecord(start, 0); cudaMemcpy(d_a, a, sizeof(int)*N, cudaMemcpyHostToDevice); cudaMemcpy(d_b, b, sizeof(int)*N, cudaMemcpyHostToDevice); Add << <block_add, thread_add >> > (d_a, d_b, d_c); cudaMemcpy(c, d_c, sizeof(int)*N, cudaMemcpyDeviceToHost); cudaEventRecord(stop, 0); cudaEventSynchronize(stop); float tm; //创建时间变量 cudaEventElapsedTime(&tm, start, stop);//把事件的时间记录下来 cudaEventDestroy(start); //销毁事件 cudaEventDestroy(stop); //销毁事件 printf("GPU Elapsed time:%.6f ms.\n", tm); //屏幕显示时间 printf("GPU : c[N-1] = %d", c[N - 1]); free(a); free(b); free(c); cudaFree(d_a); cudaFree(d_b); cudaFree(d_c); return 0; } __global__ void Add(int *d_a, int *d_b, int *d_c) { const int tidx = blockIdx.x*blockDim.x + threadIdx.x; if (tidx < N) d_c[tidx] = d_a[tidx] + d_b[tidx]; } ``` 但是,使用我需要完成任务后,进行调试编译完成之后,不可以使用VisualProfiler 非常奇怪。这是我下面的一段代码: ``` #include <stdlib.h> #include <stdio.h> #include <math.h> #include <cuda_runtime.h> #include "device_launch_parameters.h" #define C 3e8 #define pi 3.141592653589793 #define uchar unsigned char float B = 100e6; //带宽 float fc = 10e9; //载频 float Fs = 140e6; //采样频率 float PRF = 500; //脉冲重复周期 float Rs = 10e3; //最近斜距 float Tp = 20e-6; //脉冲时宽 float H = 4e3; //平台高度 int Nan = 8192; //方位向采样点数 int Nrn = 4096; //距离向采样点数 int Nz; float vx = 70.0, vy = 0.0, vz = 0.0, angle_equal = 0;//俯冲参数 float BeamWide_azimuth = 3.0 / 180 * pi; //雷达波束宽度 int data_nrn_new = 512, data_nan_new = 512;//从原图中截取的图像大小 float DeltaR = C / 2 / Fs; //距离采样间隔 float x_interval = DeltaR; float y_interval = DeltaR; float theta = 3.0 / 180 * pi; __global__ void pos(float *d_pos_x, float *d_pos_y, float *d_pos_z, int nan, float PRF, float vx, float vy, float vz, float Rs, float angle_equal, float H); int main() { //雷达坐标 float* pos_x; pos_x = (float*)malloc(sizeof(float)*Nan); float* pos_y; pos_y = (float*)malloc(sizeof(float)*Nan); float* pos_z; pos_z = (float*)malloc(sizeof(float)*Nan); float *d_pos_x; //平台坐标x cudaMalloc((void **)&d_pos_x, Nan * sizeof(float)); float *d_pos_y; //平台坐标y cudaMalloc((void **)&d_pos_y, Nan * sizeof(float)); float *d_pos_z; //平台坐标z cudaMalloc((void **)&d_pos_z, Nan * sizeof(float)); printf("分配空间完毕\n"); //线程分配 dim3 blocks_Pos((Nan + 512 - 1) / 512, 1);//雷达位置线程 dim3 threads_Pos(512, 1); cudaEvent_t start, stop; cudaEventCreate(&start); cudaEventCreate(&stop); cudaEventRecord(start,0); pos<< <blocks_Pos, threads_Pos >> >(d_pos_x, d_pos_y, d_pos_z, Nan, PRF, vx, vy, vz, Rs, angle_equal, H); printf("核函数计算完毕\n"); cudaEventRecord(stop, 0); cudaEventSynchronize(stop); float dt; cudaEventElapsedTime(&dt, start, stop); cudaEventDestroy(start); cudaEventDestroy(stop); printf("time: %.2f ms\n", dt); cudaMemcpy(pos_x, d_pos_x, sizeof(float)*Nan, cudaMemcpyHostToDevice); cudaMemcpy(pos_y, d_pos_y, sizeof(float)*Nan, cudaMemcpyHostToDevice); cudaMemcpy(pos_z, d_pos_z, sizeof(float)*Nan, cudaMemcpyHostToDevice); printf("数据传输完毕\n"); cudaFree(d_pos_x); cudaFree(d_pos_y); cudaFree(d_pos_z); return 1; } //计算传感器实时位置 __global__ void pos(float *d_pos_x, float *d_pos_y, float *d_pos_z, int nan, float PRF, float vx, float vy, float vz, float Rs, float angle_equal, float H) { const int tid = blockIdx.x*blockDim.x + threadIdx.x; if (tid<nan) { d_pos_x[tid] = (tid - nan / 2.0) / PRF*vx; d_pos_y[tid] = (tid - nan / 2.0) / PRF*vy - float(sqrt(pow(double(Rs*cos(angle_equal)), 2.0) - pow(double(H), 2.0))); d_pos_z[tid] = H; } } ``` 恳请哪位大神可以帮助我看下出现了什么问题
相见恨晚的超实用网站
搞学习 知乎:www.zhihu.com 简答题:http://www.jiandati.com/ 网易公开课:https://open.163.com/ted/ 网易云课堂:https://study.163.com/ 中国大学MOOC:www.icourse163.org 网易云课堂:study.163.com 哔哩哔哩弹幕网:www.bilibili.com 我要自学网:www.51zxw
花了20分钟,给女朋友们写了一个web版群聊程序
参考博客 [1]https://www.byteslounge.com/tutorials/java-ee-html5-websocket-example
爬虫福利二 之 妹子图网MM批量下载
爬虫福利一:27报网MM批量下载    点击 看了本文,相信大家对爬虫一定会产生强烈的兴趣,激励自己去学习爬虫,在这里提前祝:大家学有所成! 目标网站:妹子图网 环境:Python3.x 相关第三方模块:requests、beautifulsoup4 Re:各位在测试时只需要将代码里的变量 path 指定为你当前系统要保存的路径,使用 python xxx.py 或IDE运行即可。
字节跳动视频编解码面经
引言 本文主要是记录一下面试字节跳动的经历。 三四月份投了字节跳动的实习(图形图像岗位),然后hr打电话过来问了一下会不会opengl,c++,shador,当时只会一点c++,其他两个都不会,也就直接被拒了。 七月初内推了字节跳动的提前批,因为内推没有具体的岗位,hr又打电话问要不要考虑一下图形图像岗,我说实习投过这个岗位不合适,不会opengl和shador,然后hr就说秋招更看重基础。我当时
Java学习的正确打开方式
在博主认为,对于入门级学习java的最佳学习方法莫过于视频+博客+书籍+总结,前三者博主将淋漓尽致地挥毫于这篇博客文章中,至于总结在于个人,实际上越到后面你会发现学习的最好方式就是阅读参考官方文档其次就是国内的书籍,博客次之,这又是一个层次了,这里暂时不提后面再谈。博主将为各位入门java保驾护航,各位只管冲鸭!!!上天是公平的,只要不辜负时间,时间自然不会辜负你。 何谓学习?博主所理解的学习,它
程序员必须掌握的核心算法有哪些?
由于我之前一直强调数据结构以及算法学习的重要性,所以就有一些读者经常问我,数据结构与算法应该要学习到哪个程度呢?,说实话,这个问题我不知道要怎么回答你,主要取决于你想学习到哪些程度,不过针对这个问题,我稍微总结一下我学过的算法知识点,以及我觉得值得学习的算法。这些算法与数据结构的学习大多数是零散的,并没有一本把他们全部覆盖的书籍。下面是我觉得值得学习的一些算法以及数据结构,当然,我也会整理一些看过
大学四年自学走来,这些私藏的实用工具/学习网站我贡献出来了
大学四年,看课本是不可能一直看课本的了,对于学习,特别是自学,善于搜索网上的一些资源来辅助,还是非常有必要的,下面我就把这几年私藏的各种资源,网站贡献出来给你们。主要有:电子书搜索、实用工具、在线视频学习网站、非视频学习网站、软件下载、面试/求职必备网站。 注意:文中提到的所有资源,文末我都给你整理好了,你们只管拿去,如果觉得不错,转发、分享就是最大的支持了。 一、电子书搜索 对于大部分程序员...
linux系列之常用运维命令整理笔录
本博客记录工作中需要的linux运维命令,大学时候开始接触linux,会一些基本操作,可是都没有整理起来,加上是做开发,不做运维,有些命令忘记了,所以现在整理成博客,当然vi,文件操作等就不介绍了,慢慢积累一些其它拓展的命令,博客不定时更新 顺便拉下票,我在参加csdn博客之星竞选,欢迎投票支持,每个QQ或者微信每天都可以投5票,扫二维码即可,http://m234140.nofollow.ax.
比特币原理详解
一、什么是比特币 比特币是一种电子货币,是一种基于密码学的货币,在2008年11月1日由中本聪发表比特币白皮书,文中提出了一种去中心化的电子记账系统,我们平时的电子现金是银行来记账,因为银行的背后是国家信用。去中心化电子记账系统是参与者共同记账。比特币可以防止主权危机、信用风险。其好处不多做赘述,这一层面介绍的文章很多,本文主要从更深层的技术原理角度进行介绍。 二、问题引入 假设现有4个人...
Python 基础(一):入门必备知识
目录1 标识符2 关键字3 引号4 编码5 输入输出6 缩进7 多行8 注释9 数据类型10 运算符10.1 常用运算符10.2 运算符优先级 1 标识符 标识符是编程时使用的名字,用于给变量、函数、语句块等命名,Python 中标识符由字母、数字、下划线组成,不能以数字开头,区分大小写。 以下划线开头的标识符有特殊含义,单下划线开头的标识符,如:_xxx ,表示不能直接访问的类属性,需通过类提供
这30个CSS选择器,你必须熟记(上)
关注前端达人,与你共同进步CSS的魅力就是让我们前端工程师像设计师一样进行网页的设计,我们能轻而易举的改变颜色、布局、制作出漂亮的影音效果等等,我们只需要改几行代码,不需...
国产开源API网关项目进入Apache孵化器:APISIX
点击蓝色“程序猿DD”关注我回复“资源”获取独家整理的学习资料!近日,又有一个开源项目加入了这个Java开源界大名鼎鼎的Apache基金会,开始进行孵化器。项目名称:AP...
程序员接私活怎样防止做完了不给钱?
首先跟大家说明一点,我们做 IT 类的外包开发,是非标品开发,所以很有可能在开发过程中会有这样那样的需求修改,而这种需求修改很容易造成扯皮,进而影响到费用支付,甚至出现做完了项目收不到钱的情况。 那么,怎么保证自己的薪酬安全呢? 我们在开工前,一定要做好一些证据方面的准备(也就是“讨薪”的理论依据),这其中最重要的就是需求文档和验收标准。一定要让需求方提供这两个文档资料作为开发的基础。之后开发
网页实现一个简单的音乐播放器(大佬别看。(⊙﹏⊙))
今天闲着无事,就想写点东西。然后听了下歌,就打算写个播放器。 于是乎用h5 audio的加上js简单的播放器完工了。 欢迎 改进 留言。 演示地点跳到演示地点 html代码如下`&lt;!DOCTYPE html&gt; &lt;html&gt; &lt;head&gt; &lt;title&gt;music&lt;/title&gt; &lt;meta charset="utf-8"&gt
Python十大装B语法
Python 是一种代表简单思想的语言,其语法相对简单,很容易上手。不过,如果就此小视 Python 语法的精妙和深邃,那就大错特错了。本文精心筛选了最能展现 Python 语法之精妙的十个知识点,并附上详细的实例代码。如能在实战中融会贯通、灵活使用,必将使代码更为精炼、高效,同时也会极大提升代码B格,使之看上去更老练,读起来更优雅。 1. for - else 什么?不是 if 和 else 才
数据库优化 - SQL优化
前面一篇文章从实例的角度进行数据库优化,通过配置一些参数让数据库性能达到最优。但是一些“不好”的SQL也会导致数据库查询变慢,影响业务流程。本文从SQL角度进行数据库优化,提升SQL运行效率。 判断问题SQL 判断SQL是否有问题时可以通过两个表象进行判断: 系统级别表象 CPU消耗严重 IO等待严重 页面响应时间过长
2019年11月中国大陆编程语言排行榜
2019年11月2日,我统计了某招聘网站,获得有效程序员招聘数据9万条。针对招聘信息,提取编程语言关键字,并统计如下: 编程语言比例 rank pl_ percentage 1 java 33.62% 2 c/c++ 16.42% 3 c_sharp 12.82% 4 javascript 12.31% 5 python 7.93% 6 go 7.25% 7
通俗易懂地给女朋友讲:线程池的内部原理
餐厅的约会 餐盘在灯光的照耀下格外晶莹洁白,女朋友拿起红酒杯轻轻地抿了一小口,对我说:“经常听你说线程池,到底线程池到底是个什么原理?”我楞了一下,心里想女朋友今天是怎么了,怎么突然问出这么专业的问题,但做为一个专业人士在女朋友面前也不能露怯啊,想了一下便说:“我先给你讲讲我前同事老王的故事吧!” 大龄程序员老王 老王是一个已经北漂十多年的程序员,岁数大了,加班加不动了,升迁也无望,于是拿着手里
经典算法(5)杨辉三角
杨辉三角 是经典算法,这篇博客对它的算法思想进行了讲解,并有完整的代码实现。
编写Spring MVC控制器的14个技巧
本期目录 1.使用@Controller构造型 2.实现控制器接口 3.扩展AbstractController类 4.为处理程序方法指定URL映射 5.为处理程序方法指定HTTP请求方法 6.将请求参数映射到处理程序方法 7.返回模型和视图 8.将对象放入模型 9.处理程序方法中的重定向 10.处理表格提交和表格验证 11.处理文件上传 12.在控制器中自动装配业务类 ...
腾讯算法面试题:64匹马8个跑道需要多少轮才能选出最快的四匹?
昨天,有网友私信我,说去阿里面试,彻底的被打击到了。问了为什么网上大量使用ThreadLocal的源码都会加上private static?他被难住了,因为他从来都没有考虑过这个问题。无独有偶,今天笔者又发现有网友吐槽了一道腾讯的面试题,我们一起来看看。 腾讯算法面试题:64匹马8个跑道需要多少轮才能选出最快的四匹? 在互联网职场论坛,一名程序员发帖求助到。二面腾讯,其中一个算法题:64匹
面试官:你连RESTful都不知道我怎么敢要你?
面试官:了解RESTful吗? 我:听说过。 面试官:那什么是RESTful? 我:就是用起来很规范,挺好的 面试官:是RESTful挺好的,还是自我感觉挺好的 我:都挺好的。 面试官:… 把门关上。 我:… 要干嘛?先关上再说。 面试官:我说出去把门关上。 我:what ?,夺门而去 文章目录01 前言02 RESTful的来源03 RESTful6大原则1. C-S架构2. 无状态3.统一的接
求小姐姐抠图竟遭白眼?痛定思痛,我决定用 Python 自力更生!
点击蓝色“Python空间”关注我丫加个“星标”,每天一起快乐的学习大家好,我是 Rocky0429,一个刚恰完午饭,正在用刷网页浪费生命的蒟蒻...一堆堆无聊八卦信息的网页内容慢慢使我的双眼模糊,一个哈欠打出了三斤老泪,就在此时我看到了一张图片:是谁!是谁把我女朋友的照片放出来的!awsl!太好看了叭...等等,那个背景上的一堆鬼画符是什么鬼?!真是看不下去!叔叔婶婶能忍,隔壁老王的三姨妈的四表...
为啥国人偏爱Mybatis,而老外喜欢Hibernate/JPA呢?
关于SQL和ORM的争论,永远都不会终止,我也一直在思考这个问题。昨天又跟群里的小伙伴进行了一番讨论,感触还是有一些,于是就有了今天这篇文。 声明:本文不会下关于Mybatis和JPA两个持久层框架哪个更好这样的结论。只是摆事实,讲道理,所以,请各位看官勿喷。 一、事件起因 关于Mybatis和JPA孰优孰劣的问题,争论已经很多年了。一直也没有结论,毕竟每个人的喜好和习惯是大不相同的。我也看
SQL-小白最佳入门sql查询一
不要偷偷的查询我的个人资料,即使你再喜欢我,也不要这样,真的不好;
项目中的if else太多了,该怎么重构?
介绍 最近跟着公司的大佬开发了一款IM系统,类似QQ和微信哈,就是聊天软件。我们有一部分业务逻辑是这样的 if (msgType = "文本") { // dosomething } else if(msgType = "图片") { // doshomething } else if(msgType = "视频") { // doshomething } else { // doshom...
致 Python 初学者
欢迎来到“Python进阶”专栏!来到这里的每一位同学,应该大致上学习了很多 Python 的基础知识,正在努力成长的过程中。在此期间,一定遇到了很多的困惑,对未来的学习方向感到迷茫。我非常理解你们所面临的处境。我从2007年开始接触 python 这门编程语言,从2009年开始单一使用 python 应对所有的开发工作,直至今天。回顾自己的学习过程,也曾经遇到过无数的困难,也曾经迷茫过、困惑过。开办这个专栏,正是为了帮助像我当年一样困惑的 Python 初学者走出困境、快速成长。希望我的经验能真正帮到你
“狗屁不通文章生成器”登顶GitHub热榜,分分钟写出万字形式主义大作
一、垃圾文字生成器介绍 最近在浏览GitHub的时候,发现了这样一个骨骼清奇的雷人项目,而且热度还特别高。 项目中文名:狗屁不通文章生成器 项目英文名:BullshitGenerator 根据作者的介绍,他是偶尔需要一些中文文字用于GUI开发时测试文本渲染,因此开发了这个废话生成器。但由于生成的废话实在是太过富于哲理,所以最近已经被小伙伴们给玩坏了。 他的文风可能是这样的: 你发现,...
程序员:我终于知道post和get的区别
是一个老生常谈的话题,然而随着不断的学习,对于以前的认识有很多误区,所以还是需要不断地总结的,学而时习之,不亦说乎
《程序人生》系列-这个程序员只用了20行代码就拿了冠军
你知道的越多,你不知道的越多 点赞再看,养成习惯GitHub上已经开源https://github.com/JavaFamily,有一线大厂面试点脑图,欢迎Star和完善 前言 这一期不算《吊打面试官》系列的,所有没前言我直接开始。 絮叨 本来应该是没有这期的,看过我上期的小伙伴应该是知道的嘛,双十一比较忙嘛,要值班又要去帮忙拍摄年会的视频素材,还得搞个程序员一天的Vlog,还要写BU...
加快推动区块链技术和产业创新发展,2019可信区块链峰会在京召开
11月8日,由中国信息通信研究院、中国通信标准化协会、中国互联网协会、可信区块链推进计划联合主办,科技行者协办的2019可信区块链峰会将在北京悠唐皇冠假日酒店开幕。   区块链技术被认为是继蒸汽机、电力、互联网之后,下一代颠覆性的核心技术。如果说蒸汽机释放了人类的生产力,电力解决了人类基本的生活需求,互联网彻底改变了信息传递的方式,区块链作为构造信任的技术有重要的价值。   1...
程序员把地府后台管理系统做出来了,还有3.0版本!12月7号最新消息:已在开发中有github地址
第一幕:缘起 听说阎王爷要做个生死簿后台管理系统,我们派去了一个程序员…… 996程序员做的梦: 第一场:团队招募 为了应对地府管理危机,阎王打算找“人”开发一套地府后台管理系统,于是就在地府总经办群中发了项目需求。 话说还是中国电信的信号好,地府都是满格,哈哈!!! 经常会有外行朋友问:看某网站做的不错,功能也简单,你帮忙做一下? 而这次,面对这样的需求,这个程序员...
网易云6亿用户音乐推荐算法
网易云音乐是音乐爱好者的集聚地,云音乐推荐系统致力于通过 AI 算法的落地,实现用户千人千面的个性化推荐,为用户带来不一样的听歌体验。 本次分享重点介绍 AI 算法在音乐推荐中的应用实践,以及在算法落地过程中遇到的挑战和解决方案。 将从如下两个部分展开: AI算法在音乐推荐中的应用 音乐场景下的 AI 思考 从 2013 年 4 月正式上线至今,网易云音乐平台持续提供着:乐屏社区、UGC...
【技巧总结】位运算装逼指南
位算法的效率有多快我就不说,不信你可以去用 10 亿个数据模拟一下,今天给大家讲一讲位运算的一些经典例子。不过,最重要的不是看懂了这些例子就好,而是要在以后多去运用位运算这些技巧,当然,采用位运算,也是可以装逼的,不信,你往下看。我会从最简单的讲起,一道比一道难度递增,不过居然是讲技巧,那么也不会太难,相信你分分钟看懂。 判断奇偶数 判断一个数是基于还是偶数,相信很多人都做过,一般的做法的代码如下...
【管理系统课程设计】美少女手把手教你后台管理
【文章后台管理系统】URL设计与建模分析+项目源码+运行界面 栏目管理、文章列表、用户管理、角色管理、权限管理模块(文章最后附有源码) 1. 这是一个什么系统? 1.1 学习后台管理系统的原因 随着时代的变迁,现如今各大云服务平台横空出世,市面上有许多如学生信息系统、图书阅读系统、停车场管理系统等的管理系统,而本人家里就有人在用烟草销售系统,直接在网上完成挑选、购买与提交收货点,方便又快捷。 试想,若没有烟草销售系统,本人家人想要购买烟草,还要独自前往药...
8年经验面试官详解 Java 面试秘诀
作者 |胡书敏 责编 | 刘静 出品 | CSDN(ID:CSDNnews) 本人目前在一家知名外企担任架构师,而且最近八年来,在多家外企和互联网公司担任Java技术面试官,前后累计面试了有两三百位候选人。在本文里,就将结合本人的面试经验,针对Java初学者、Java初级开发和Java开发,给出若干准备简历和准备面试的建议。 Java程序员准备和投递简历的实...
相关热词 c# clr dll c# 如何orm c# 固定大小的字符数组 c#框架设计 c# 删除数据库 c# 中文文字 图片转 c# 成员属性 接口 c#如何将程序封装 16进制负数转换 c# c#练手项目
立即提问