cuda核函数不执行的可能原因?

练习了一个矩阵乘法的例子,每个block配置16×16个thread,
当做5000×5000的矩阵乘法时,结果就全为0,核函数不执行不知道原因是什么?
每个grid每一维可以包含至少65535个block,算了下没有超出但是核函数没执行。。。

5个回答

代码是在设备上运行的么,没有使用主机变量吧,没有爆内存吧,还有驱动程序对不对。你可以先测试自带的例子程序,排除环境问题。

weixin_38256708
weixin_38256708 算1000×1000乘法就没问题,显卡内存4个G,刚算了下5000*5000*3*4/1024/1024/1024<4G,代码是在设备上跑的。。。
一年多之前 回复

#define blocksize 32
#define BLOCK_NUM 2048

global void matrix_mul(float M, float *N, float res,int L_cols,int L_rows, int R_cols)
{

int bid=blockIdx.x;
int row=threadIdx.y;
int col=threadIdx.x;
int blockRow,blockCol,r=(L_rows+blocksize-1)/blocksize,c=(R_cols+blocksize-1)/blocksize;
float sum;

for(int u=bid;u<r*c;u+= BLOCK_NUM)
{
sum=0;
blockRow=u%r;
blockCol=u/r;

for(int i=0;i<((L_cols+blocksize-1)/blocksize);i++)
{

shared float subA[blocksize][blocksize];
shared float subB[blocksize][blocksize];

if((blockRow*blocksize+row)<L_rows&&(i*blocksize+col)<L_cols)
subA[row][col]=M[(i*blocksize+col)*L_rows+blockRow*blocksize+row];
else
subA[row][col]=0;
if((blockCol*blocksize+col)<R_cols&&(i*blocksize+row)<L_cols)
subB[row][col]=N[L_cols*(blockCol*blocksize+col)+row+i*blocksize];
else
subB[row][col]=0;

__syncthreads();
for(int j=0;j<blocksize;j++)
sum+=subA[row][j]*subB[j][col];
__syncthreads();
}
if((blockRow*blocksize+row)<L_rows&&(blockCol*blocksize+col)<R_cols)
res[L_rows*(blockCol*blocksize+col)+blockRow*blocksize+row]=sum;

}
}


代码如上图,做10000×10000矩阵乘法结果就全是0了,但是算了下内存没超

原因有多种多样的:

(1)其中常见的一种是,32 * 32 = 1024线程的block大小,超出了贵卡的能力范围。
(需要fermi+的,请告知一下你的卡的信息)

(2)此外的一种常见原因是越界访存,请确保你用的数据(例如缓冲区)也随之相应扩大了。

没看到你是怎么invoke的,

不过5000*5000*sizeof(float)我目测是超了...
ps...每个thread都需要占用资源,是无法达到理论上限的。

weixin_38256708
weixin_38256708 算了下才几百M啊,我的显存有4个G
一年多之前 回复
Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
cuda一个global函数里调用多个核函数出问题。
caffe编写loss层时, 我一个global函数里有多个核函数,但是有时前两个核函数不执行,有时候又执行,不清楚问题出在哪里? ``` template <typename Dtype> void PixelClustingLossLayer<Dtype>::Forward_gpu( const vector<Blob<Dtype>*>& bottom, const vector<Blob<Dtype>*>& top) { const int num = bottom[0]->num(); const int data_channels = bottom[0]->channels(); const int mask_channels = bottom[1]->channels(); const int height = bottom[0]->height(); const int width = bottom[0]->width(); const int spatial_dim = height * width; const int nc = num * data_channels; const int data_count = bottom[0]->count(); const int mask_count = bottom[1]->count(); Dtype* pos_num_data = pos_num_.mutable_cpu_data(); Dtype* neg_num_data = neg_num_.mutable_cpu_data(); caffe_gpu_set(mask_count, Dtype(0.), pixel_mask_.mutable_gpu_data()); caffe_gpu_set(num, Dtype(0.), loss_mask_.mutable_gpu_data()); caffe_gpu_set(num*data_channels, Dtype(0.), pos_ave_.mutable_gpu_data()); caffe_gpu_set(num*data_channels, Dtype(0.), neg_ave_.mutable_gpu_data()); caffe_gpu_set(num, Dtype(0.), pos_loss_.mutable_gpu_data()); caffe_gpu_set(num, Dtype(0.), neg_loss_.mutable_gpu_data()); caffe_gpu_set(num, Dtype(0.), center_loss_.mutable_gpu_data()); for(int n=0; n<num; ++n) { caffe_gpu_asum(spatial_dim, bottom[1]->gpu_data() + n * spatial_dim, pos_num_.mutable_cpu_data() + n); neg_num_data[n] = spatial_dim - pos_num_data[n]; } //LOG(INFO)<<"There are "<<pos_num_.cpu_data()[0]<<" pos pixels and "<<neg_num_.cpu_data()[0]<<" neg pixels."; GetTotalValue<Dtype> <<<CAFFE_GET_BLOCKS(data_count), CAFFE_CUDA_NUM_THREADS>>>(data_count, bottom[0]->gpu_data(), bottom[1]->gpu_data(), pos_ave_.mutable_gpu_data(), neg_ave_.mutable_gpu_data(), data_channels, height, width); //LOG(INFO)<<"There are 111 neg pixels."; GetAveValue<Dtype> <<<CAFFE_GET_BLOCKS(nc), CAFFE_CUDA_NUM_THREADS>>>(nc, pos_num_.gpu_data(), neg_num_.gpu_data(), pos_ave_.mutable_gpu_data(), neg_ave_.mutable_gpu_data(), center_loss_.mutable_gpu_data(), data_channels); //LOG(INFO)<<"There are 222 neg pixels."; PowerEuclideanDistance<Dtype> <<<CAFFE_GET_BLOCKS(mask_count), CAFFE_CUDA_NUM_THREADS>>>(mask_count, bottom[0]->gpu_data(), bottom[1]->gpu_data(), pos_ave_.gpu_data(), neg_ave_.gpu_data(), euclidean_dis_.mutable_gpu_data(), mask_channels, data_channels, height, width); ComputePixelLoss<Dtype> <<<CAFFE_GET_BLOCKS(mask_count), CAFFE_CUDA_NUM_THREADS>>>(mask_count, bottom[1]->gpu_data(), euclidean_dis_.gpu_data(), pos_loss_.mutable_gpu_data(), neg_loss_.mutable_gpu_data(), pos_num_.gpu_data(), neg_num_.gpu_data(), pixel_mask_.mutable_gpu_data(), mask_channels, height, width, alpha_); ComputeClassLoss<Dtype> <<<CAFFE_GET_BLOCKS(num), CAFFE_CUDA_NUM_THREADS>>>(num, center_loss_.mutable_gpu_data(), loss_mask_.mutable_gpu_data(), beta_); caffe_gpu_add(num, neg_loss_.gpu_data(), pos_loss_.gpu_data(), loss_.mutable_gpu_data()); caffe_gpu_add(num, loss_.gpu_data(), center_loss_.gpu_data(), loss_.mutable_gpu_data()); Dtype loss; caffe_gpu_asum(num, loss_.gpu_data(), &loss); LOG(INFO)<<loss/Dtype(num); top[0]->mutable_cpu_data()[0] = loss / num; } ``` 主要是GetTotalValue()函数和GetAveValue()函数,偶尔执行,偶尔不执行,头都晕了。 有没有大神指点迷津。
cuda核函数奇怪的问题?
k = pDats[j].nCount - 101; { for (m = 0;m < 90;m++) { if (k+m<pDats[j].nCount && k + m>=0) pRsts[i].dDats[m] = pDats[j].pDats[k+m].x; } } 上面核函数能正确执行, 改成 for (k = 10;k < pDats[j].nCount - 101;k++) { for (m = 0;m < 90;m++) { if (k+m<pDats[j].nCount && k + m>=0) pRsts[i].dDats[m] = pDats[j].pDats[k+m].x; } } 结果直接退出了
CUDA核函数运行时参数加入cudaStream时出现Unrecognized token
核函数定义 ``` __global__ void local_binary_fit_part1_kernel( float *Hu_gpu, float *I_gpu, const float *img_gpu, const float *phi_gpu, const float epsilon, const int width, const int height, const int depth ) { int x = threadIdx.x; int y = blockIdx.x; int z = blockIdx.y; int pos = x + (y + z*height)*width; float hu = 0.5*(1 + (2 / PI)*atan(phi_gpu[pos] / epsilon)); Hu_gpu[pos] = hu; I_gpu[pos] = hu * img_gpu[pos]; return; } ``` 在C函数中调用该核函数 ``` cudaStream_t stream0, stream1; cudaStreamCreate(&stream0); cudaStreamCreate(&stream1); int div1 = depth / 2; int div2 = depth - div1; dim3 grid1(height, div1, 1); dim3 grid2(height, div2, 1); cudaMemcpyAsync(phi_gpu, phi, div1*height*width*sizeof(float), cudaMemcpyHostToDevice, stream0); cudaMemcpyAsync(phi_gpu + div1*width*height, phi + div1*width*height, div2*height*width*sizeof(float), cudaMemcpyHostToDevice, stream1); cudaMemcpyAsync(img_gpu, img, div1*height*width*sizeof(float), cudaMemcpyHostToDevice, stream0); cudaMemcpyAsync(img_gpu + div1*width*height, img + div1*width*height, div2*height*width*sizeof(float), cudaMemcpyHostToDevice, stream1); local_binary_fit_part1_kernel <<<grid1, width, 0, stream0 >>>(Hu_gpu, I_gpu, img_gpu, phi_gpu, epsilon, width, height, depth); local_binary_fit_part1_kernel <<<grid2, width,0, stream1 >>>(Hu_gpu + div1*width*height, I_gpu + div1*width*height, img_gpu + div1*width*height, phi_gpu + div1*width*height, epsilon, width, height, depth); cudaStreamSynchronize(stream0); cudaStreamSynchronize(stream1); cudaStreamDestroy(stream0); cudaStreamDestroy(stream1); ``` 编译时出现如下错误 error : unrecognized token 如改成 ``` local_binary_fit_part1_kernel <<<grid1, width>>>(Hu_gpu, I_gpu, img_gpu, phi_gpu, epsilon, width, height, depth); ``` 则能通过,这个是什么原因
cuda程序调用核函数时 <<< >>> 显示出错
cuda程序调用核函数时 <<< >>> 显示出错 还有 syncthreads() 也显示未定义, 我查找了源文件加了#define __CUDACC__可以解决,但我觉得并不是好的解决办法。 还有texture,tex1Dfetch都显示未定义,我不知道为什么,需要什么头文件? cuda 7.5,vs2013,win10 都能编译运行通过,但总是显示这么多未定义,为什么,要怎样解决?
Ubuntu上编写的cuda核函数终端直接输出为什么需要添加cudaDeviceReset()???求解救
系统:Ubuntu18.04 这段代码没法直接在终端上输出 ``` #include<stdio.h> __global__ void Hello() { printf("GPU\n"); } int main(void) { printf("CPU\n"); Hello<<<1,10>>>(); } ``` 但是添加上cudaDeviceReset()后能够输出到终端上 ``` #include<stdio.h> __global__ void Hello() { printf("GPU\n"); } int main(void) { printf("CPU\n"); Hello<<<1,10>>>(); cudaDeviceReset(); } ``` ????????
windows线程池有没有类似cuda内函数__synchreads()用于同步所有线程的函数
windows线程池有没有类似cuda内函数__synchreads()用于同步所有线程的函数
CUDA kernel函数内for循环引发unspecific launch failure
我想测试一下CUDA kernel函数中的for循环的循环次数可不可以无限大。于是我写了一个简单的代码如下: 于是当size像下面的一千万那么大的时候,程序不正确了。显示调用核函数失败 unspecific launch failure 我用nsight带的工具测试了一下,并不是寄存器超了或者内存分配失败或溢出,只是随着size的增加,每个warp的指令数IPW(Instructions Per Warp)会增加。是不是错误与这个有关?但是下面的程序代码看起来没有什么错误,如果换成C++的话循环多少次都可以,是不是CUDA对kernel有什么限制?我想知道它错误的原因。 系统:Win10 pro 64bit IDE:Visual Studio 2015 community CUDA 8.0 GPU: GTX860M 4GB #include "cuda_runtime.h" #include "device_launch_parameters.h" #include "stdlib.h" #include <iostream> using namespace std; __global__ void Kernel(double *M_gpu, int size) { for (int i = 0; i < size; i++) { M_gpu[i] = i / 2 + 6; } } int main() { cudaError_t cudaStatus; //分配CPU空间 int size = 10000000; double *M = (double *)malloc(sizeof(double)*size); //分配GPU空间 double *M_gpu; cudaStatus = cudaMalloc((void**)&M_gpu, sizeof(double)*size); if (cudaStatus != cudaSuccess) { cout << "分配CPU空间失败!" << cudaGetErrorString(cudaStatus) << endl; getchar(); exit(0); } //调用核函数 Kernel << <1, 1 >> > (M_gpu, size); cudaDeviceSynchronize(); cudaStatus = cudaGetLastError(); if (cudaStatus != cudaSuccess) { cout << "调用核函数失败!" << cudaGetErrorString(cudaStatus) << endl; getchar(); exit(0); } //将数据从GPU拷贝回CPU cudaStatus = cudaMemcpy(M, M_gpu, sizeof(double)*size, cudaMemcpyDeviceToHost); if (cudaStatus != cudaSuccess) { cout << "拷贝数据失败!" << cudaGetErrorString(cudaStatus) << endl; getchar(); exit(0); } //END cout << "Success!" << endl; getchar(); }
cuda cudaMemcpy 函数
cudaMemcpy的第三个参数是要拷贝数据的大小,如果这个大小小于我在gpu上分配的存储空间(第一个参数),会出现什么情况。
Unexpected CUDA error: invalid argument
我在使用tensorflow-gpu时,运行如下的代码: ``` import tensorflow as tf a = tf.constant([1.0,2.0,3.0],shape = [3],name='a') print(a) ``` 能正确显示 ``tf.Tensor([1. 2. 3.], shape=(3,), dtype=float32)`` 但当我加入以下两行代码 ``` b = tf.constant([1.0,2.0,3.0], shape = [3],name='b') a+b ``` 会报如下的错误 ``` F tensorflow/stream_executor/cuda/cuda_driver.cc:209] Check failed: err == cudaSuccess || err == cudaErrorInvalidValue Unexpected CUDA error: invalid argument ``` 请大神帮忙解答
CUDA编程中如何使用双精度FP64单元,计算单精度FP32指令
我的CUDA核函数中只使用了INT32和FP32的数据类型,可是在用NVprofiler拿到的profiling中: ![图片说明](https://img-ask.csdn.net/upload/201708/14/1502708584_799483.png) 却看到使用了FP64执行单元。 请问,这是什么原因呢? 另外,如何在kernel里面显式指定计算单元,比如指定使用FP64单元计算FP32指令?
GPU编程时每次调试之前都要清理解决方案?
本人新手,刚接触CUDA编程。 Windows 10 vs2017 c++,cuda10.0。 现在遇到一个问题是,如果核函数内的代码进行了修改,进行调试之前都必须先清理一遍解决方案,如果不清理的话程序会执行上一次没有修改的代码,就连本次修改中被注释掉的代码还是会被执行。 虽然每次清理解决方案就可以解决,但还是想弄清楚这是什么原因造成的?是显存没有被释放?希望大神们能解惑,感谢!
cuda环境装上之后核函数<<<>>>内的参数总是有问题
#include "cuda_runtime.h" #include "device_launch_parameters.h" #include<iostream> using namespace std; #define N 10 __global__ void add(const int *a, const int *b, int *c){ int tid = blockIdx.x; if (tid < N){ c[tid] = a[tid] + b[tid]; } } int main(){ int a[N], b[N], c[N]; int *dev_a, *dev_b, *dev_c; cudaMalloc((void**)&dev_a, N*sizeof(int)); cudaMalloc((void**)&dev_b, N*sizeof(int)); cudaMalloc((void**)&dev_c, N*sizeof(int)); for (int i = 0; i < N; i++){ a[i] = -i; b[i] = i*i; } cudaMemcpy(dev_a, a, N*sizeof(int), cudaMemcpyHostToDevice); cudaMemcpy(dev_b, b, N*sizeof(int), cudaMemcpyHostToDevice); add<<<1,1>>>(dev_a,dev_b, dev_c); cudaMemcpy(c, dev_c, N*sizeof(int), cudaMemcpyHostToDevice); for (int i = 0; i < N; i++){ printf("%d+%d=%d\n",a[i], b[i], c[i]); } cudaFree(dev_a); cudaFree(dev_b); cudaFree(dev_c); return 0; } 提示 add<<<1,1>>>(dev_a,dev_b, dev_c);语句的第一个“1”要输入表达式
我的CUDA输出参数总是错的,全部是253,这是什么情况?
CUDA的核函数传递的参数有输入参数也有输出参数,但是我的输出参数总是错的,全部是253,这是什么情况?[输出函数被重复访问和更改过,难道跟这个有关?] 新手求解答。急!!!
一个关于tensorflow和CUDA安装的问题
我的系统是Linux,我用Anaconda安装tensorflow-gpu是否还需要单独安装CUDA,我看他已经给我顺便安了cudatoolkit和cudnn,是不是就不用再安CUDA了? 另一个问题是,如果我想用C++版的opencv调用CUDA,是不是还得再自己安装CUDA啊?
cuda+mpi混合编程的函数调用和编译问题
我现在想用mpi实现两块GPU之间的数据通信,请问在cuda源文件里(xxx.cu)如果包含了<mpi.h>头文件,可以调用mpi函数(如mpi_send),并用nvcc正确编译吗。
cuda向设备端传递多个一维数组,并在核函数修改数组元素值
现在有多个一维数组,我想将他们拷贝到设备端修改他们的值,然后拷贝回host端,代码如下: #include "cuda_runtime.h" #include "device_launch_parameters.h" #include "helper_cuda.h" #include <stdio.h> #include<iostream> using namespace std; #define N 10 __global__ void gpuKernel(int **ptr) { int tid=threadIdx.x; int bid=blockIdx.x; if (tid<N &&bid<N) { ptr[bid][tid]=N; } } int main() { int **hptr,**hostArray; int **dptr,**devArray; hptr=new int *[N]; cudaMalloc(&dptr,N*sizeof(int*)); hostArray=new int *[N]; devArray=new int *[N]; for (int i=0;i<N;i++) { hostArray[i]=new int[N]; for (int j=0;j<N;j++) { hostArray[i][j]=1; } } for (int i=0;i<N;i++) { cudaMemcpy(devArray[i],hostArray[i],N*sizeof(int),cudaMemcpyHostToDevice); hptr[i]=devArray[i];//保存每个数组的头指针 } cudaMemcpy(dptr,hptr,N*sizeof(int*),cudaMemcpyHostToDevice); dim3 dimblock=N; dim3 dimgrid =N; gpuKernel<<<dimgrid,dimblock>>>(dptr); for (int i=0;i<N;i++) { cudaMemcpy(hostArray[i],devArray[i],N*sizeof(int),cudaMemcpyDeviceToHost); } for (int i=0;i<N;i++) { for (int j=0;j<N;j++) { cout<<hostArray[i][j]<<","; } cout<<endl; } //free memory for (int i=0;i<N;i++) { delete []hostArray[i]; cudaFree(devArray[i]); } cudaFree(dptr); /*cudaFree(devArray);*/ delete[]hptr; delete []hostArray; delete[]devArray; return 0; } 最终结果是元素值都为修改,纠结这个问题几天了,并且仔细拜读bendanban大神的博客http://blog.csdn.net/bendanban/article/details/7669624,可能自己理解有误,望各位大神指点
Nvida GEforce GTX 1650支不支持CUDA编程吗?
我的笔记本显卡为GTX 1650,官网上给出的支持CUDA的型号列表中不包括这款显卡(见图1)。但是NVIDA显卡控制面板中的系统信息里又包含CUDA核心(见图2和图4)。我自己用GPU-Z测试了,也支持CUDA(见图3)。这款显卡到底支持不支持CUDA编程开发呀? 请各位大牛帮我解惑。 我后面下载了Cuda 10.1,在Visual studio新建了Cuda工程,编译生成exe没有问题。运行的时候,发现调用cudaGetDeviceCount(&n)返回的n=0。这样看是没有Cuda Device啊,但是Nvida的控制面板和GPU-z中的Cuda又是什么呢? ![图片说明](https://img-ask.csdn.net/upload/201907/17/1563333869_390563.png) 图1 ![图片说明](https://img-ask.csdn.net/upload/201907/17/1563333879_948711.png) 图 2 ![图片说明](https://img-ask.csdn.net/upload/201907/17/1563333890_206980.png) 图 3 ![图片说明](https://img-ask.csdn.net/upload/201907/17/1563333899_695588.png) 图 4
opencv+cuda关于GpuMat数据转递问题
萌新刚刚接触opencv+cuda不久,还不是很熟练,现在碰到了一个问题,不知道有没有大佬知道解决方法 实际问题中我想定义一个GpuMat类型的数组,例如cv::cuda::GpuMat cu_proj[10][128]; 然后传递给核函数的时候就显示如下错误 error : no suitable constructor exists to convert from "cv::cuda::GpuMat [10][128]" to "cv::cuda::PtrStepSz<uchar1>" 我网上搜到的都是单个GpuMat的传递,不知道我这种情况有没有解决方法呀?以及如果有,在核函数中应该怎么索引呢?我试过cu_proj[x][y](i, y),也显示错误: error : no operator "[]" matches these operands 感激不尽!
Java学习的正确打开方式
在博主认为,对于入门级学习java的最佳学习方法莫过于视频+博客+书籍+总结,前三者博主将淋漓尽致地挥毫于这篇博客文章中,至于总结在于个人,实际上越到后面你会发现学习的最好方式就是阅读参考官方文档其次就是国内的书籍,博客次之,这又是一个层次了,这里暂时不提后面再谈。博主将为各位入门java保驾护航,各位只管冲鸭!!!上天是公平的,只要不辜负时间,时间自然不会辜负你。 何谓学习?博主所理解的学习,它是一个过程,是一个不断累积、不断沉淀、不断总结、善于传达自己的个人见解以及乐于分享的过程。
程序员必须掌握的核心算法有哪些?
由于我之前一直强调数据结构以及算法学习的重要性,所以就有一些读者经常问我,数据结构与算法应该要学习到哪个程度呢?,说实话,这个问题我不知道要怎么回答你,主要取决于你想学习到哪些程度,不过针对这个问题,我稍微总结一下我学过的算法知识点,以及我觉得值得学习的算法。这些算法与数据结构的学习大多数是零散的,并没有一本把他们全部覆盖的书籍。下面是我觉得值得学习的一些算法以及数据结构,当然,我也会整理一些看过...
大学四年自学走来,这些私藏的实用工具/学习网站我贡献出来了
大学四年,看课本是不可能一直看课本的了,对于学习,特别是自学,善于搜索网上的一些资源来辅助,还是非常有必要的,下面我就把这几年私藏的各种资源,网站贡献出来给你们。主要有:电子书搜索、实用工具、在线视频学习网站、非视频学习网站、软件下载、面试/求职必备网站。 注意:文中提到的所有资源,文末我都给你整理好了,你们只管拿去,如果觉得不错,转发、分享就是最大的支持了。 一、电子书搜索 对于大部分程序员...
linux系列之常用运维命令整理笔录
本博客记录工作中需要的linux运维命令,大学时候开始接触linux,会一些基本操作,可是都没有整理起来,加上是做开发,不做运维,有些命令忘记了,所以现在整理成博客,当然vi,文件操作等就不介绍了,慢慢积累一些其它拓展的命令,博客不定时更新 free -m 其中:m表示兆,也可以用g,注意都要小写 Men:表示物理内存统计 total:表示物理内存总数(total=used+free) use...
比特币原理详解
一、什么是比特币 比特币是一种电子货币,是一种基于密码学的货币,在2008年11月1日由中本聪发表比特币白皮书,文中提出了一种去中心化的电子记账系统,我们平时的电子现金是银行来记账,因为银行的背后是国家信用。去中心化电子记账系统是参与者共同记账。比特币可以防止主权危机、信用风险。其好处不多做赘述,这一层面介绍的文章很多,本文主要从更深层的技术原理角度进行介绍。 二、问题引入 假设现有4个人...
程序员接私活怎样防止做完了不给钱?
首先跟大家说明一点,我们做 IT 类的外包开发,是非标品开发,所以很有可能在开发过程中会有这样那样的需求修改,而这种需求修改很容易造成扯皮,进而影响到费用支付,甚至出现做完了项目收不到钱的情况。 那么,怎么保证自己的薪酬安全呢? 我们在开工前,一定要做好一些证据方面的准备(也就是“讨薪”的理论依据),这其中最重要的就是需求文档和验收标准。一定要让需求方提供这两个文档资料作为开发的基础。之后开发...
网页实现一个简单的音乐播放器(大佬别看。(⊙﹏⊙))
今天闲着无事,就想写点东西。然后听了下歌,就打算写个播放器。 于是乎用h5 audio的加上js简单的播放器完工了。 演示地点演示 html代码如下` music 这个年纪 七月的风 音乐 ` 然后就是css`*{ margin: 0; padding: 0; text-decoration: none; list-...
Python十大装B语法
Python 是一种代表简单思想的语言,其语法相对简单,很容易上手。不过,如果就此小视 Python 语法的精妙和深邃,那就大错特错了。本文精心筛选了最能展现 Python 语法之精妙的十个知识点,并附上详细的实例代码。如能在实战中融会贯通、灵活使用,必将使代码更为精炼、高效,同时也会极大提升代码B格,使之看上去更老练,读起来更优雅。
数据库优化 - SQL优化
以实际SQL入手,带你一步一步走上SQL优化之路!
2019年11月中国大陆编程语言排行榜
2019年11月2日,我统计了某招聘网站,获得有效程序员招聘数据9万条。针对招聘信息,提取编程语言关键字,并统计如下: 编程语言比例 rank pl_ percentage 1 java 33.62% 2 cpp 16.42% 3 c_sharp 12.82% 4 javascript 12.31% 5 python 7.93% 6 go 7.25% 7 p...
通俗易懂地给女朋友讲:线程池的内部原理
餐盘在灯光的照耀下格外晶莹洁白,女朋友拿起红酒杯轻轻地抿了一小口,对我说:“经常听你说线程池,到底线程池到底是个什么原理?”
《奇巧淫技》系列-python!!每天早上八点自动发送天气预报邮件到QQ邮箱
将代码部署服务器,每日早上定时获取到天气数据,并发送到邮箱。 也可以说是一个小型人工智障。 知识可以运用在不同地方,不一定非是天气预报。
经典算法(5)杨辉三角
杨辉三角 是经典算法,这篇博客对它的算法思想进行了讲解,并有完整的代码实现。
英特尔不为人知的 B 面
从 PC 时代至今,众人只知在 CPU、GPU、XPU、制程、工艺等战场中,英特尔在与同行硬件芯片制造商们的竞争中杀出重围,且在不断的成长进化中,成为全球知名的半导体公司。殊不知,在「刚硬」的背后,英特尔「柔性」的软件早已经做到了全方位的支持与支撑,并持续发挥独特的生态价值,推动产业合作共赢。 而对于这一不知人知的 B 面,很多人将其称之为英特尔隐形的翅膀,虽低调,但是影响力却不容小觑。 那么,在...
腾讯算法面试题:64匹马8个跑道需要多少轮才能选出最快的四匹?
昨天,有网友私信我,说去阿里面试,彻底的被打击到了。问了为什么网上大量使用ThreadLocal的源码都会加上private static?他被难住了,因为他从来都没有考虑过这个问题。无独有偶,今天笔者又发现有网友吐槽了一道腾讯的面试题,我们一起来看看。 腾讯算法面试题:64匹马8个跑道需要多少轮才能选出最快的四匹? 在互联网职场论坛,一名程序员发帖求助到。二面腾讯,其中一个算法题:64匹...
面试官:你连RESTful都不知道我怎么敢要你?
干货,2019 RESTful最贱实践
刷了几千道算法题,这些我私藏的刷题网站都在这里了!
遥想当年,机缘巧合入了 ACM 的坑,周边巨擘林立,从此过上了"天天被虐似死狗"的生活… 然而我是谁,我可是死狗中的战斗鸡,智力不够那刷题来凑,开始了夜以继日哼哧哼哧刷题的日子,从此"读题与提交齐飞, AC 与 WA 一色 ",我惊喜的发现被题虐既刺激又有快感,那一刻我泪流满面。这么好的事儿作为一个正直的人绝不能自己独享,经过激烈的颅内斗争,我决定把我私藏的十几个 T 的,阿不,十几个刷题网...
为啥国人偏爱Mybatis,而老外喜欢Hibernate/JPA呢?
关于SQL和ORM的争论,永远都不会终止,我也一直在思考这个问题。昨天又跟群里的小伙伴进行了一番讨论,感触还是有一些,于是就有了今天这篇文。 声明:本文不会下关于Mybatis和JPA两个持久层框架哪个更好这样的结论。只是摆事实,讲道理,所以,请各位看官勿喷。 一、事件起因 关于Mybatis和JPA孰优孰劣的问题,争论已经很多年了。一直也没有结论,毕竟每个人的喜好和习惯是大不相同的。我也看...
白话阿里巴巴Java开发手册高级篇
不久前,阿里巴巴发布了《阿里巴巴Java开发手册》,总结了阿里巴巴内部实际项目开发过程中开发人员应该遵守的研发流程规范,这些流程规范在一定程度上能够保证最终的项目交付质量,通过在时间中总结模式,并推广给广大开发人员,来避免研发人员在实践中容易犯的错误,确保最终在大规模协作的项目中达成既定目标。 无独有偶,笔者去年在公司里负责升级和制定研发流程、设计模板、设计标准、代码标准等规范,并在实际工作中进行...
SQL-小白最佳入门sql查询一
不要偷偷的查询我的个人资料,即使你再喜欢我,也不要这样,真的不好;
项目中的if else太多了,该怎么重构?
介绍 最近跟着公司的大佬开发了一款IM系统,类似QQ和微信哈,就是聊天软件。我们有一部分业务逻辑是这样的 if (msgType = "文本") { // dosomething } else if(msgType = "图片") { // doshomething } else if(msgType = "视频") { // doshomething } else { // doshom...
Nginx 原理和架构
Nginx 是一个免费的,开源的,高性能的 HTTP 服务器和反向代理,以及 IMAP / POP3 代理服务器。Nginx 以其高性能,稳定性,丰富的功能,简单的配置和低资源消耗而闻名。 Nginx 的整体架构 Nginx 里有一个 master 进程和多个 worker 进程。master 进程并不处理网络请求,主要负责调度工作进程:加载配置、启动工作进程及非停升级。worker 进程负责处...
【图解经典算法题】如何用一行代码解决约瑟夫环问题
约瑟夫环问题算是很经典的题了,估计大家都听说过,然后我就在一次笔试中遇到了,下面我就用 3 种方法来详细讲解一下这道题,最后一种方法学了之后保证让你可以让你装逼。 问题描述:编号为 1-N 的 N 个士兵围坐在一起形成一个圆圈,从编号为 1 的士兵开始依次报数(1,2,3…这样依次报),数到 m 的 士兵会被杀死出列,之后的士兵再从 1 开始报数。直到最后剩下一士兵,求这个士兵的编号。 1、方...
吐血推荐珍藏的Visual Studio Code插件
作为一名Java工程师,由于工作需要,最近一个月一直在写NodeJS,这种经历可以说是一部辛酸史了。好在有神器Visual Studio Code陪伴,让我的这段经历没有更加困难。眼看这段经历要告一段落了,今天就来给大家分享一下我常用的一些VSC的插件。 VSC的插件安装方法很简单,只需要点击左侧最下方的插件栏选项,然后就可以搜索你想要的插件了。 下面我们进入正题 Material Theme ...
如何防止抄袭PCB电路板
目录 1、抄板是什么 2、抄板是否属于侵权 3、如何防止抄板 1、抄板是什么 抄板也叫克隆或仿制,是对设计出来的PCB板进行反向技术研究;目前全新的定义:从狭义上来说,抄板仅指对电子产品电路板PCB文件的提取还原和利用文件进行电路板克隆的过程;从广义上来说,抄板不仅包括对电路板文件提取、电路板克隆、电路板仿制等技术过程,而且包括对电路板文件进行修改(即改板)、对电子产品外形模具进行三维...
“狗屁不通文章生成器”登顶GitHub热榜,分分钟写出万字形式主义大作
一、垃圾文字生成器介绍 最近在浏览GitHub的时候,发现了这样一个骨骼清奇的雷人项目,而且热度还特别高。 项目中文名:狗屁不通文章生成器 项目英文名:BullshitGenerator 根据作者的介绍,他是偶尔需要一些中文文字用于GUI开发时测试文本渲染,因此开发了这个废话生成器。但由于生成的废话实在是太过富于哲理,所以最近已经被小伙伴们给玩坏了。 他的文风可能是这样的: 你发现,...
程序员:我终于知道post和get的区别
是一个老生常谈的话题,然而随着不断的学习,对于以前的认识有很多误区,所以还是需要不断地总结的,学而时习之,不亦说乎
《程序人生》系列-这个程序员只用了20行代码就拿了冠军
你知道的越多,你不知道的越多 点赞再看,养成习惯GitHub上已经开源https://github.com/JavaFamily,有一线大厂面试点脑图,欢迎Star和完善 前言 这一期不算《吊打面试官》系列的,所有没前言我直接开始。 絮叨 本来应该是没有这期的,看过我上期的小伙伴应该是知道的嘛,双十一比较忙嘛,要值班又要去帮忙拍摄年会的视频素材,还得搞个程序员一天的Vlog,还要写BU...
加快推动区块链技术和产业创新发展,2019可信区块链峰会在京召开
11月8日,由中国信息通信研究院、中国通信标准化协会、中国互联网协会、可信区块链推进计划联合主办,科技行者协办的2019可信区块链峰会将在北京悠唐皇冠假日酒店开幕。   区块链技术被认为是继蒸汽机、电力、互联网之后,下一代颠覆性的核心技术。如果说蒸汽机释放了人类的生产力,电力解决了人类基本的生活需求,互联网彻底改变了信息传递的方式,区块链作为构造信任的技术有重要的价值。   1...
Python 植物大战僵尸代码实现(2):植物卡片选择和种植
这篇文章要介绍的是: - 上方植物卡片栏的实现。 - 点击植物卡片,鼠标切换为植物图片。 - 鼠标移动时,判断当前在哪个方格中,并显示半透明的植物作为提示。
Java世界最常用的工具类库
Apache Commons Apache Commons有很多子项目 Google Guava 参考博客
相关热词 基于c#波形控件 c# 十进制转十六进制 对文件aes加密vc# c#读取栈中所有的值 c# rsa256加密 好 学c# 还是c++ c# 和java的差距 c# curl网络框架 c# https证书请求 c# 中崎
立即提问