Cuda Error:CUDA驱动程序版本不适合CUDA运行时版本 10C

Check failed: cudaSuccess == cudaStat (0 vs. 35) Cuda Error: CUDA driver version is insufficient for CUDA runtime version
练习百度的Paddle的机器翻译示例时,在docker中运行代码,出现这个错误,不知道该怎么解决。。。
图片说明

2个回答

cuda sdk版本太低,升级到8.0以上
另外确保你的显卡物理支持cuda 3.0(Geforce GTX 6系列以上,不包括少量的GT630 GT610这种其实是上一代核心的马甲卡)

另外检查下你的显卡驱动程序,根据你用的cuda sdk(8.0或者9.0,以及你的显卡型号),去找兼容的显卡驱动,并且最好禁用驱动更新,以免系统自作主张给你升级驱动。

Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
Unexpected CUDA error: invalid argument
我在使用tensorflow-gpu时,运行如下的代码: ``` import tensorflow as tf a = tf.constant([1.0,2.0,3.0],shape = [3],name='a') print(a) ``` 能正确显示 ``tf.Tensor([1. 2. 3.], shape=(3,), dtype=float32)`` 但当我加入以下两行代码 ``` b = tf.constant([1.0,2.0,3.0], shape = [3],name='b') a+b ``` 会报如下的错误 ``` F tensorflow/stream_executor/cuda/cuda_driver.cc:209] Check failed: err == cudaSuccess || err == cudaErrorInvalidValue Unexpected CUDA error: invalid argument ``` 请大神帮忙解答
pytorch将tensor放到GPU上出错,RuntimeError: CUDA error: unknown error怎么回事?
![pytorch将tensor放到GPU上出错,RuntimeError: CUDA error: unknown error怎么回事?](https://img-ask.csdn.net/upload/201907/02/1562073790_506236.png)
在Autoware 中编译yolo3节点时,发生darknet: ./src/cuda.c:36: check_error: Assertio `0' failed.
在Autoware 中编译yolo3节点时,发生darknet: ./src/cuda.c:36: check_error: Assertio `0' failed. CUDA error:unknown error
pytorch使用cuda报错RuntimeError: CUDA error: unknown error,如何解决?
具体情况如下 ![](https://img-ask.csdn.net/upload/201907/14/1563082013_251355.jpg) cuda可用但是把tensor放到gpu上就会报这个错 ``` import torch as t tensor=t.Tensor(3,4) tensor.cuda(0) ``` 按照类似问题https://ask.csdn.net/questions/767989所给的方法,检查了cuda版本,全局设置全局设置首选图形处理器为“高性能NVIDIA处理器” 但还是报错 显卡是gtx1050 按照网上方法运行cuda自带的deviceQuery.exe的结果 ![图片说明](https://img-ask.csdn.net/upload/201907/14/1563082410_614414.jpg) 求助! 更新7.14 13:56 代码 ``` import torch as t tensor=t.Tensor(3,4) tensor.cuda(0) ``` 在pycharm上运行就没有报错。。。 不知道为什么。。。
求助:CUDA的RuntimeError:cuda runtime error (30)
``` from torchvision import models use_gpu = torch.cuda.is_available() model_ft = models.resnet18(pretrained = True) if use_gpu: model_ft = model_ft.cuda() ``` 运行后报错: ``` RuntimeError Traceback (most recent call last) <ipython-input-6-87942ec8aa13> in <module>() 11 model_ft.fc = nn.Linear(num_ftrs , 5)#############################2 12 if use_gpu: ---> 13 model_ft = model_ft.cuda() 14 #criterion = nn.MultiMarginLoss() 15 criterion = nn.CrossEntropyLoss() ~\Anaconda3\lib\site-packages\torch\nn\modules\module.py in cuda(self, device) 258 Module: self 259 """ --> 260 return self._apply(lambda t: t.cuda(device)) 261 262 def cpu(self): ~\Anaconda3\lib\site-packages\torch\nn\modules\module.py in _apply(self, fn) 185 def _apply(self, fn): 186 for module in self.children(): --> 187 module._apply(fn) 188 189 for param in self._parameters.values(): ~\Anaconda3\lib\site-packages\torch\nn\modules\module.py in _apply(self, fn) 191 # Tensors stored in modules are graph leaves, and we don't 192 # want to create copy nodes, so we have to unpack the data. --> 193 param.data = fn(param.data) 194 if param._grad is not None: 195 param._grad.data = fn(param._grad.data) ~\Anaconda3\lib\site-packages\torch\nn\modules\module.py in <lambda>(t) 258 Module: self 259 """ --> 260 return self._apply(lambda t: t.cuda(device)) 261 262 def cpu(self): ~\Anaconda3\lib\site-packages\torch\cuda\__init__.py in _lazy_init() 160 "Cannot re-initialize CUDA in forked subprocess. " + msg) 161 _check_driver() --> 162 torch._C._cuda_init() 163 _cudart = _load_cudart() 164 _cudart.cudaGetErrorName.restype = ctypes.c_char_p RuntimeError: cuda runtime error (30) : unknown error at ..\aten\src\THC\THCGeneral.cpp:87 ``` Win10+Anaconda5.0.1+python3.6.3 Cuda driver version 10.1 Cuda Toolkit 10.1 pytorch 1.0.1 显卡GeForce GTX 1050 Ti nvidia驱动版本430.39 求助啊!!!
多节点运行cuda+mpi时报错 cudaEvent报错
我在一个小集群上运行mpi+cuda的程序,设置了cuda计时,但是其中一个节点运行到 CUDA_CALL(cudaEventRecord(stop, 0)); CUDA_CALL(cudaEventSynchronize(stop)); 时报错: CUDA Error: invalid resource handle (err_num=33) 其他节点正常运行,请问这是什么原因。
opencv3.1+cuda7.5+cmake3.5 编译错误
运行环境:win7 64位旗舰版。 重新编译opencv,该添加的库都添加了。但是还是出现了linn error! 编译的时候出现了: frame_source.cpp.obj : error LNK2001: 无法解析的外部符号 "public: static class cv::cuda::GpuMat::Allocator * __cdecl cv::cuda::GpuMat::defaultAllocator(void)" (?defaultAllocator@GpuMat@cuda@cv@@SAPEAVAllocator@123@XZ) 1>optical_flow.cpp.obj : error LNK2001: 无法解析的外部符号 "public: static class cv::cuda::GpuMat::Allocator * __cdecl cv::cuda::GpuMat::defaultAllocator(void)" (?defaultAllocator@GpuMat@cuda@cv@@SAPEAVAllocator@123@XZ) 1>optical_flow.cpp.obj : error LNK2001: 无法解析的外部符号 "public: static class cv::cuda::GpuMat::Allocator * __cdecl cv::cuda::GpuMat::defaultAllocator(void)" (?defaultAllocator@GpuMat@cuda@cv@@SAPEAVAllocator@123@XZ) 类似这些总共2000度个错误。 求大神帮忙!搞了两天也没找出错误。 小弟在此先谢过了!
opencv+cuda关于GpuMat数据转递问题
萌新刚刚接触opencv+cuda不久,还不是很熟练,现在碰到了一个问题,不知道有没有大佬知道解决方法 实际问题中我想定义一个GpuMat类型的数组,例如cv::cuda::GpuMat cu_proj[10][128]; 然后传递给核函数的时候就显示如下错误 error : no suitable constructor exists to convert from "cv::cuda::GpuMat [10][128]" to "cv::cuda::PtrStepSz<uchar1>" 我网上搜到的都是单个GpuMat的传递,不知道我这种情况有没有解决方法呀?以及如果有,在核函数中应该怎么索引呢?我试过cu_proj[x][y](i, y),也显示错误: error : no operator "[]" matches these operands 感激不尽!
运行时报错:failed call to cuInit: CUDA_ERROR_NO_DEVICE
import tensorflow 正常, tensorflow-gpu==1.0.0, cuda8.0, sudnn5.0, CPU-E6700, GPU-quadro-410, 但 运行时报错:failed call to cuInit: CUDA_ERROR_NO_DEVICE 有建议吗 ? 谢谢帮助。 I c:\tf_jenkins\home\workspace\release-win\device\gpu\os\windows\tensorflow\stream_executor\dso_loader.cc:135] successfully opened CUDA library cublas64_80.dll locally I c:\tf_jenkins\home\workspace\release-win\device\gpu\os\windows\tensorflow\stream_executor\dso_loader.cc:135] successfully opened CUDA library cudnn64_5.dll locally I c:\tf_jenkins\home\workspace\release-win\device\gpu\os\windows\tensorflow\stream_executor\dso_loader.cc:135] successfully opened CUDA library cufft64_80.dll locally I c:\tf_jenkins\home\workspace\release-win\device\gpu\os\windows\tensorflow\stream_executor\dso_loader.cc:135] successfully opened CUDA library nvcuda.dll locally I c:\tf_jenkins\home\workspace\release-win\device\gpu\os\windows\tensorflow\stream_executor\dso_loader.cc:135] successfully opened CUDA library curand64_80.dll locally E c:\tf_jenkins\home\workspace\release-win\device\gpu\os\windows\tensorflow\core\framework\op_kernel.cc:943] OpKernel ('op: "BestSplits" device_type: "CPU"') for unknown op: BestSplits E c:\tf_jenkins\home\workspace\release-win\device\gpu\os\windows\tensorflow\core\framework\op_kernel.cc:943] OpKernel ('op: "CountExtremelyRandomStats" device_type: "CPU"') for unknown op: CountExtremelyRandomStats E c:\tf_jenkins\home\workspace\release-win\device\gpu\os\windows\tensorflow\core\framework\op_kernel.cc:943] OpKernel ('op: "FinishedNodes" device_type: "CPU"') for unknown op: FinishedNodes E c:\tf_jenkins\home\workspace\release-win\device\gpu\os\windows\tensorflow\core\framework\op_kernel.cc:943] OpKernel ('op: "GrowTree" device_type: "CPU"') for unknown op: GrowTree E c:\tf_jenkins\home\workspace\release-win\device\gpu\os\windows\tensorflow\core\framework\op_kernel.cc:943] OpKernel ('op: "ReinterpretStringToFloat" device_type: "CPU"') for unknown op: ReinterpretStringToFloat E c:\tf_jenkins\home\workspace\release-win\device\gpu\os\windows\tensorflow\core\framework\op_kernel.cc:943] OpKernel ('op: "SampleInputs" device_type: "CPU"') for unknown op: SampleInputs E c:\tf_jenkins\home\workspace\release-win\device\gpu\os\windows\tensorflow\core\framework\op_kernel.cc:943] OpKernel ('op: "ScatterAddNdim" device_type: "CPU"') for unknown op: ScatterAddNdim E c:\tf_jenkins\home\workspace\release-win\device\gpu\os\windows\tensorflow\core\framework\op_kernel.cc:943] OpKernel ('op: "TopNInsert" device_type: "CPU"') for unknown op: TopNInsert E c:\tf_jenkins\home\workspace\release-win\device\gpu\os\windows\tensorflow\core\framework\op_kernel.cc:943] OpKernel ('op: "TopNRemove" device_type: "CPU"') for unknown op: TopNRemove E c:\tf_jenkins\home\workspace\release-win\device\gpu\os\windows\tensorflow\core\framework\op_kernel.cc:943] OpKernel ('op: "TreePredictions" device_type: "CPU"') for unknown op: TreePredictions E c:\tf_jenkins\home\workspace\release-win\device\gpu\os\windows\tensorflow\core\framework\op_kernel.cc:943] OpKernel ('op: "UpdateFertileSlots" device_type: "CPU"') for unknown op: UpdateFertileSlots E c:\tf_jenkins\home\workspace\release-win\device\gpu\os\windows\tensorflow\stream_executor\cuda\cuda_driver.cc:509] failed call to cuInit: CUDA_ERROR_NO_DEVICE
CUDA纹理绑定后提醒invalid texture reference,可能是什么导致的?
本来有一段较大较复杂的图像处理的代码,但调试总是纹理绑定啊出错。。于是自己写了个小程序检查是不是支持纹理绑定(同样的环境下)。结果是可以的。于是把这个小程序纹理绑定部分代码移植到有问题的大代码中。结果移植的小程序中纹理绑定出错。提示:invalid texture reference。到底怎么回事??简单纹理绑定小程序代码如下:(文件头申明纹理参考了)(环境为CUDA5.0+vs2010,显卡为Tesla M2090计算能力2.0) 跪求大神指点啊!!!! IplImage *lena=cvLoadImage("lena.jpg",0); int nchanel=lena->nChannels; int LenaWidth=lena->widthStep; int LenaHeight=lena->height; int LenaSize=LenaWidth*LenaHeight; cudaArray * cuArrayLena; cudaMallocArray(&cuArrayLena, &channelDesc, LenaWidth,LenaHeight); cudaError_t error=cudaMemcpyToArray(cuArrayLena, 0, 0, (uchar*)lena->imageData,LenaSize, cudaMemcpyHostToDevice); TRACE("CUDA error:%s\n",cudaGetErrorString(error)); texLena.addressMode[0]=cudaAddressModeClamp; texLena.addressMode[1]=cudaAddressModeClamp; texLena.filterMode=cudaFilterModePoint; texLena.normalized=false; error=cudaBindTextureToArray(texLena,cuArrayLena,channelDesc); TRACE("CUDA error:%s\n",cudaGetErrorString(error));
安装tensorflow-gpu后运行程序出现An error ocurred while starting the kernel问题
tensorflow2.0,cuda10.2,cudnn7.6,使用improt语句没有问题, 但是在执行model.add()语句时报错 2019-12-29 17:01:21.546770: F .\tensorflow/core/kernels/random_op_gpu.h:227] Non-OK-status: GpuLaunchKernel(FillPhiloxRandomKernelLaunch<Distribution>, num_blocks, block_size, 0, d.stream(), gen, data, size, dist) status: Internal: invalid device function 没有找到合适的解决方法,在此求助!感谢!
求救!darknet生成的时候报错,CUDA 8.0.targets(216,9): error : Item '..\..\src
目前环境是 win7 CUDA 8.0 cudnn-8.0-windows7 vs2015 截图: ![图片说明](https://img-ask.csdn.net/upload/201906/22/1561203495_152612.png) ![图片说明](https://img-ask.csdn.net/upload/201906/22/1561203537_735733.png) ![图片说明](https://img-ask.csdn.net/upload/201906/22/1561203544_325293.png) 原本我的环境是高版本的,但因为这个问题换了版本,依然是解决不了这个问题了,就差重装系统了,初入社区,没有什么C币,愿提供21款数据恢复软件+3款文件粉碎软件做为报酬,再次感谢
cuda6.0安装后系统找不到路径,错误类型: error MSB3721: 返回1
![图片说明](https://img-ask.csdn.net/upload/201807/11/1531296319_544901.png) 安装完成cuda了,讲道理cmd中输入nvcc-V能出现信息就是安装成功了,环境变量也设置了![![图片说明](https://img-ask.csdn.net/upload/201807/11/1531296532_677303.png) ![!图片说明](https://img-ask.csdn.net/upload/201807/11/1531296524_129321.png) vc2010中的库目录和包含目录也已经添加对应环境变量路径, 讲道理我实在想不通还有哪里有问题,最后出现错误如下: 系统找不到指定的路径。 1>C:\Program Files (x86)\MSBuild\Microsoft.Cpp\v4.0\BuildCustomizations\CUDA 6.0.targets(597,9): error MSB3721: 命令“"C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\bin\nvcc.exe" -gencode=arch=compute_10,code=\"sm_10,compute_10\" --use-local-env --cl-version 2010 -ccbin "D:\visual2010\visualstudio\VC\bin\x86_amd64" -I"C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\include" -I"C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\include" -G --keep-dir x64\Debug -maxrregcount=0 --machine 64 --compile -cudart static -g -DWIN32 -DWIN64 -D_DEBUG -D_CONSOLE -D_MBCS -Xcompiler "/EHsc /W3 /nologo /Od /Zi /RTC1 /MDd " -o x64\Debug\kernel.cu.obj "F:\temp\te\te\te\kernel.cu"”已退出,返回代码为 1。
cuda运行错误,call to cuMemcpy failed, 返回错误代码700
我在运行mpi+cuda程序的时候,显示 call to cuMemcpy failed cuMemcpy return value: 700 在cuda.h中查了一下错误代码700的解释如下: While executing a kernel, the device encountered a load or store instruction on an invalid memory address.This leaves the process in an inconsistent state and any further CUDA work will return the same error. To continue using CUDA, the process must be terminated and relaunched. 求问该如何解决。
cuda cudaMemcpy 报错 unkown error
我是一个cuda新手,现在在测试一个程序,它报的错误是 unkown error ,是从最后的cudaMemcpy报出来的,求高人指教,我不知道是错在哪里了,在此谢过 #include "cuda_runtime.h" #include "device_launch_parameters.h" #include <stdio.h> #include <time.h> #define N (128*128*2) __global__ void times(int *div_c) { int tmp = threadIdx.x+ blockIdx.x*blockDim.x; while(tmp<N) { div_c[tmp]=tmp; tmp+=blockIdx.x*gridDim.x; } } int main(void) { int c[N]; int i; clock_t t; int *div_c; cudaError_t error; for(i=0;i<N;++i) { c[i]=0; if(c[i]!=0) { printf("error4"); } } printf("start\n"); t=clock(); error=cudaMalloc((void **)&div_c,sizeof(int)*N); if(error!=cudaSuccess) { printf("error1"); getchar(); return 1; } error = cudaMemcpy(div_c,c,sizeof(int)*N,cudaMemcpyHostToDevice); if(error!=cudaSuccess) { printf("error2"); getchar(); return 1; } times<<<128,128>>>(div_c); error = cudaMemcpy(c,div_c,sizeof(int)*N,cudaMemcpyDeviceToHost); if(error!=cudaSuccess) { printf("%s\n",cudaGetErrorString(error)); getchar(); return 1; } t= clock()-t; printf("%d\n",t); getchar(); printf("%d\n",c[0]); getchar(); for(i=0;i<N-1;++i) { printf("%d %d \n",c[i],c[i+1]); } getchar(); return 0; cudaFree(div_c); }
pycuda写核函数报错error: expected a ")"
核函数为利用模板更新像素点 通过pycuda写cuda核函数时报错:kernel.cu(3): error: expected a ")" kernel.cu(9): error: identifier "template_size" is undefined kernel.cu(13): warning: expression has no effect kernel.cu(13): warning: expression has no effect kernel.cu(13): error: expected an expression kernel.cu(18): error: expected a ")" kernel.cu(23): error: identifier "border" is undefined kernel.cu(24): error: identifier "rows" is undefined kernel.cu(26): error: identifier "cols" is undefined kernel.cu(33): error: expected an expression 8 errors detected in the compilation of "/tmp/tmpxft_00005035_00000000-7_kernel.cpp1.ii". ] ``` import os,math,cv2,numpy from PIL import Image import numpy as np import skimage import pycuda.autoinit import pycuda.driver as drv from pycuda.compiler import SourceModule from timeit import default_timer as timer mod = SourceModule(""" __global__ void Gauss_cuda(int ***img,int ***im,float **template,int template_size) { int x = blockIdx.x * blockDim.x + threadIdx.x; int y = blockIdx.y * blockDim.y + threadIdx.y; int z = threadIdx.z; int count = 0; for(int i=x;i<x+template_size;i++) { for(int j=y;j<y+template_size;j++) { count += im[i,j,z]*template[i,j,z]; } } img[x][y][z] = count; } __global__ void bilateral_cuda(float ***img,float ***orig,float **template,float border,float sigma1,float sigma2,int rows,int cols) { int x = blockIdx.x * blockDim.x + threadIdx.x; int y = blockIdx.y * blockDim.y + threadIdx.y; int z = threadIdx.z; int xmin = max(x-border,0); int xmax = min(x+border+1,rows); int ymin = max(y-border,0); int ymax = min(y+border+1,cols); int w = 0; int v = 0; for(int i=xmin;i<xmax;i++) { for(int j=ymin;j<ymax;j++) { w += w+template[xmin-x+border+i,ymin-y+border+i]*exp((orig[i,j,z]-orig[x,y,z])*(orig[i,j,z]-orig[x,y,z])/(2*sigma2*sigma2)); v += orig[x][y][z]*w; } } img[x][y][z] = v/w; } """) Gauss_cuda = mod.get_function("Gauss_cuda") bilateral_cuda = mod.get_function("bilateral_cuda") def generateGaussianTemplate(template_size,sigma): template = np.zeros((template_size,template_size)) mid = template_size/2 sum = 0 pi = 3.1415926 for i in range(template_size): x = pow(i-mid,2) for j in range(template_size): y = pow(j-mid,2) g = math.exp((x+y)/(-2*sigma*sigma))/(2*pi*sigma) template[i][j] = g sum+=g #归一化 template = template/sum return template def Gauss_filter(img,template_size,sigma): [rows,cols,channel] = img.shape border = int(template_size/2) template = generateGaussianTemplate(template_size,sigma) im = cv2.copyMakeBorder(img,border,border,border,border,cv2.BORDER_REPLICATE) Gauss_cuda( drv.InOut(img), drv.In(im), drv.In(template),template_size, block=(template_size,template_size,3),grid=(rows,cols)) return img def Bilateral_filter(img,template_size,sigma1,sigma2): img = img/255 border = int(template_size/2) [rows,cols,channel] = img.shape tmp = np.arange(-border,border+1) [x,y] = np.meshgrid(tmp,tmp) X = np.power(x,2) Y = np.power(y,2) d = np.exp(-(X+Y)/(2*sigma1*sigma1)) orig_img = img Gauss_cuda( drv.InOut(img), drv.In(orig_img), drv.In(d),border,sigma1,sigma2,rows,cols, block=(template_size,template_size,3),grid=(rows,cols)) return img*255 if __name__=='__main__': img = cv2.imread('demo2.jpg') #noise = skimage.util.random_noise(img,'gaussian')*255 #cv2.imwrite('noise.jpg',noise) template_size = 3 sigma_g = 0.8 sigma = [3,0.1] bilateral = Bilateral_filter(img,template_size,sigma[0],sigma[1]) Gauss = Gauss_filter(img,template_size,sigma_g) cv2.imwrite('bilateral_result_{}_{}_{}.jpg'.format(template_size,sigma[0],sigma[1]),bilateral) cv2.imwrite('Gauss_result_{}_{}.jpg'.format(template_size,sigma_g),Gauss) ```
nvcc 编译cuda文件,报错Thrust包不存在。
usr/local/cuda/include目录里面已经有thrust包了 nvcc --version命令也通过 为何编译时候还是会报no such file kernel.cu:7:34: fatal error: thrust\device_vector.h: No such file or directory
在VS2010中调试CUDA程序时总是出现以下问题
1>1.cu.obj : error LNK2019: 无法解析的外部符号 cublasDestroy_v2,该符号在函数 main 中被引用 1>1.cu.obj : error LNK2019: 无法解析的外部符号 cudaFree,该符号在函数 main 中被引用 1>1.cu.obj : error LNK2019: 无法解析的外部符号 cublasGetVector,该符号在函数 main 中被引用 1>1.cu.obj : error LNK2019: 无法解析的外部符号 cublasSgemm_v2,该符号在函数 main 中被引用 1>1.cu.obj : error LNK2019: 无法解析的外部符号 cudaThreadSynchronize,该符号在函数 main 中被引用 1>1.cu.obj : error LNK2019: 无法解析的外部符号 cublasSetVector,该符号在函数 main 中被引用 1>1.cu.obj : error LNK2019: 无法解析的外部符号 cudaMalloc,该符号在函数 main 中被引用 1>1.cu.obj : error LNK2019: 无法解析的外部符号 cublasCreate_v2,该符号在函数 main 中被引用 1>1.cu.obj : error LNK2019: 无法解析的外部符号 __cudaRegisterFatBinary,该符号在函数 "void __cdecl __sti____cudaRegisterAll_36_tmpxft_00001474_00000000_5_1_cpp1_ii_main(void)" (?__sti____cudaRegisterAll_36_tmpxft_00001474_00000000_5_1_cpp1_ii_main@@YAXXZ) 中被引用 1>1.cu.obj : error LNK2019: 无法解析的外部符号 __cudaUnregisterFatBinary,该符号在函数 "void __cdecl __cudaUnregisterBinaryUtil(void)" (?__cudaUnregisterBinaryUtil@@YAXXZ) 中被引用 1>E:\Program exercise\1\x64\Debug\1.exe : fatal error LNK1120: 10 个无法解析的外部命令 1> 1>生成失败。 请各位版主指导一下!
qt creator 配置 cuda8.0 出错
错误内容: NMAKE:-1: warning: U4004: 目标“cuda\composer_cuda.obj”的规则太多 NMAKE:-1: error: U1073: 不知道如何生成“main.cpp” NMAKE:-1: error: U1077: “"D:\software\Visual Studio 2015\VC\BIN\amd64\nmake.exe"”: 返回代码“0x2” pro文件内容: QT += core gui greaterThan(QT_MAJOR_VERSION, 4): QT += widgets TARGET = test_cuda TEMPLATE = app SOURCES += main.cpp\ dialog.cpp \ HEADERS += dialog.h \ gutil.h \ composer_gpu.h \ FORMS += dialog.ui OTHER_FILES += composer.cu CUDA_OBJECTS_DIR= OBJECTS_DIR/../cuda CUDA_SOURCES += composer.cu CUDA_DIR = "C:/Program Files/NVIDIA GPU Computing Toolkit/CUDA/v8.0" CUDA_SDK = "C:/ProgramData/NVIDIA Corporation/CUDA Samples/v8.0" INCLUDEPATH += $$CUDA_DIR/include INCLUDEPATH += $$CUDA_SDK/common/inc QMAKE_LIBDIR += $$CUDA_DIR/lib/x64 QMAKE_LIBDIR += $$CUDA_SDK/common/lib/x64 SYSTEM_TYPE = 64 # '32' or '64', depending on your system LIBS += -lcuda -lcudart -lcublas CUDA_ARCH = sm_30 NVCC_OPTIONS = --use_fast_math CUDA_INC = $$join(INCLUDEPATH,'" -I"','-I"','"') MSVCRT_LINK_FLAG_DEBUG = "/MDd" MSVCRT_LINK_FLAG_RELEASE = "/MD" QMAKE_EXTRA_COMPILERS += cuda CONFIG(debug, debug|release) { # Debug mode cuda_d.input = CUDA_SOURCES cuda_d.output = $$CUDA_OBJECTS_DIR/${QMAKE_FILE_BASE}_cuda.obj cuda_d.commands = $$CUDA_DIR/bin/nvcc.exe -D_DEBUG $$NVCC_OPTIONS $$CUDA_INC $$LIBS --machine $$SYSTEM_TYPE \ -arch=$$CUDA_ARCH -c -o ${QMAKE_FILE_OUT} ${QMAKE_FILE_NAME} -Xcompiler $$MSVCRT_LINK_FLAG_DEBUG cuda_d.dependency_type = TYPE_C QMAKE_EXTRA_COMPILERS += cuda_d } else { # Release mode cuda.input = CUDA_SOURCES cuda.output = $$CUDA_OBJECTS_DIR/${QMAKE_FILE_BASE}_cuda.obj cuda.commands = $$CUDA_DIR/bin/nvcc.exe $$NVCC_OPTIONS $$CUDA_INC $$LIBS --machine $$SYSTEM_TYPE \ -arch=$$CUDA_ARCH -c -o ${QMAKE_FILE_OUT} ${QMAKE_FILE_NAME} -Xcompiler $$MSVCRT_LINK_FLAG_RELEASE cuda.dependency_type = TYPE_C QMAKE_EXTRA_COMPILERS += cuda }
爬虫福利二 之 妹子图网MM批量下载
爬虫福利一:27报网MM批量下载    点击 看了本文,相信大家对爬虫一定会产生强烈的兴趣,激励自己去学习爬虫,在这里提前祝:大家学有所成! 目标网站:妹子图网 环境:Python3.x 相关第三方模块:requests、beautifulsoup4 Re:各位在测试时只需要将代码里的变量 path 指定为你当前系统要保存的路径,使用 python xxx.py 或IDE运行即可。
Java学习的正确打开方式
在博主认为,对于入门级学习java的最佳学习方法莫过于视频+博客+书籍+总结,前三者博主将淋漓尽致地挥毫于这篇博客文章中,至于总结在于个人,实际上越到后面你会发现学习的最好方式就是阅读参考官方文档其次就是国内的书籍,博客次之,这又是一个层次了,这里暂时不提后面再谈。博主将为各位入门java保驾护航,各位只管冲鸭!!!上天是公平的,只要不辜负时间,时间自然不会辜负你。 何谓学习?博主所理解的学习,它
程序员必须掌握的核心算法有哪些?
由于我之前一直强调数据结构以及算法学习的重要性,所以就有一些读者经常问我,数据结构与算法应该要学习到哪个程度呢?,说实话,这个问题我不知道要怎么回答你,主要取决于你想学习到哪些程度,不过针对这个问题,我稍微总结一下我学过的算法知识点,以及我觉得值得学习的算法。这些算法与数据结构的学习大多数是零散的,并没有一本把他们全部覆盖的书籍。下面是我觉得值得学习的一些算法以及数据结构,当然,我也会整理一些看过
大学四年自学走来,这些私藏的实用工具/学习网站我贡献出来了
大学四年,看课本是不可能一直看课本的了,对于学习,特别是自学,善于搜索网上的一些资源来辅助,还是非常有必要的,下面我就把这几年私藏的各种资源,网站贡献出来给你们。主要有:电子书搜索、实用工具、在线视频学习网站、非视频学习网站、软件下载、面试/求职必备网站。 注意:文中提到的所有资源,文末我都给你整理好了,你们只管拿去,如果觉得不错,转发、分享就是最大的支持了。 一、PDF搜索网站推荐 对于大部
linux系列之常用运维命令整理笔录
本博客记录工作中需要的linux运维命令,大学时候开始接触linux,会一些基本操作,可是都没有整理起来,加上是做开发,不做运维,有些命令忘记了,所以现在整理成博客,当然vi,文件操作等就不介绍了,慢慢积累一些其它拓展的命令,博客不定时更新 顺便拉下票,我在参加csdn博客之星竞选,欢迎投票支持,每个QQ或者微信每天都可以投5票,扫二维码即可,http://m234140.nofollow.ax.
Vue + Spring Boot 项目实战(十四):用户认证方案与完善的访问拦截
本篇文章主要讲解 token、session 等用户认证方案的区别并分析常见误区,以及如何通过前后端的配合实现完善的访问拦截,为下一步权限控制的实现打下基础。
比特币原理详解
一、什么是比特币 比特币是一种电子货币,是一种基于密码学的货币,在2008年11月1日由中本聪发表比特币白皮书,文中提出了一种去中心化的电子记账系统,我们平时的电子现金是银行来记账,因为银行的背后是国家信用。去中心化电子记账系统是参与者共同记账。比特币可以防止主权危机、信用风险。其好处不多做赘述,这一层面介绍的文章很多,本文主要从更深层的技术原理角度进行介绍。 二、问题引入  假设现有4个人
程序员接私活怎样防止做完了不给钱?
首先跟大家说明一点,我们做 IT 类的外包开发,是非标品开发,所以很有可能在开发过程中会有这样那样的需求修改,而这种需求修改很容易造成扯皮,进而影响到费用支付,甚至出现做完了项目收不到钱的情况。 那么,怎么保证自己的薪酬安全呢? 我们在开工前,一定要做好一些证据方面的准备(也就是“讨薪”的理论依据),这其中最重要的就是需求文档和验收标准。一定要让需求方提供这两个文档资料作为开发的基础。之后开发
网页实现一个简单的音乐播放器(大佬别看。(⊙﹏⊙))
今天闲着无事,就想写点东西。然后听了下歌,就打算写个播放器。 于是乎用h5 audio的加上js简单的播放器完工了。 欢迎 改进 留言。 演示地点跳到演示地点 html代码如下`&lt;!DOCTYPE html&gt; &lt;html&gt; &lt;head&gt; &lt;title&gt;music&lt;/title&gt; &lt;meta charset="utf-8"&gt
Python十大装B语法
Python 是一种代表简单思想的语言,其语法相对简单,很容易上手。不过,如果就此小视 Python 语法的精妙和深邃,那就大错特错了。本文精心筛选了最能展现 Python 语法之精妙的十个知识点,并附上详细的实例代码。如能在实战中融会贯通、灵活使用,必将使代码更为精炼、高效,同时也会极大提升代码B格,使之看上去更老练,读起来更优雅。 1. for - else 什么?不是 if 和 else 才
数据库优化 - SQL优化
前面一篇文章从实例的角度进行数据库优化,通过配置一些参数让数据库性能达到最优。但是一些“不好”的SQL也会导致数据库查询变慢,影响业务流程。本文从SQL角度进行数据库优化,提升SQL运行效率。 判断问题SQL 判断SQL是否有问题时可以通过两个表象进行判断: 系统级别表象 CPU消耗严重 IO等待严重 页面响应时间过长
2019年11月中国大陆编程语言排行榜
2019年11月2日,我统计了某招聘网站,获得有效程序员招聘数据9万条。针对招聘信息,提取编程语言关键字,并统计如下: 编程语言比例 rank pl_ percentage 1 java 33.62% 2 c/c++ 16.42% 3 c_sharp 12.82% 4 javascript 12.31% 5 python 7.93% 6 go 7.25% 7
通俗易懂地给女朋友讲:线程池的内部原理
餐厅的约会 餐盘在灯光的照耀下格外晶莹洁白,女朋友拿起红酒杯轻轻地抿了一小口,对我说:“经常听你说线程池,到底线程池到底是个什么原理?”我楞了一下,心里想女朋友今天是怎么了,怎么突然问出这么专业的问题,但做为一个专业人士在女朋友面前也不能露怯啊,想了一下便说:“我先给你讲讲我前同事老王的故事吧!” 大龄程序员老王 老王是一个已经北漂十多年的程序员,岁数大了,加班加不动了,升迁也无望,于是拿着手里
经典算法(5)杨辉三角
写在前面: 我是 扬帆向海,这个昵称来源于我的名字以及女朋友的名字。我热爱技术、热爱开源、热爱编程。技术是开源的、知识是共享的。 这博客是对自己学习的一点点总结及记录,如果您对 Java、算法 感兴趣,可以关注我的动态,我们一起学习。 用知识改变命运,让我们的家人过上更好的生活。 目录一、杨辉三角的介绍二、杨辉三角的算法思想三、代码实现1.第一种写法2.第二种写法 一、杨辉三角的介绍 百度
腾讯算法面试题:64匹马8个跑道需要多少轮才能选出最快的四匹?
昨天,有网友私信我,说去阿里面试,彻底的被打击到了。问了为什么网上大量使用ThreadLocal的源码都会加上private static?他被难住了,因为他从来都没有考虑过这个问题。无独有偶,今天笔者又发现有网友吐槽了一道腾讯的面试题,我们一起来看看。 腾讯算法面试题:64匹马8个跑道需要多少轮才能选出最快的四匹? 在互联网职场论坛,一名程序员发帖求助到。二面腾讯,其中一个算法题:64匹
面试官:你连RESTful都不知道我怎么敢要你?
面试官:了解RESTful吗? 我:听说过。 面试官:那什么是RESTful? 我:就是用起来很规范,挺好的 面试官:是RESTful挺好的,还是自我感觉挺好的 我:都挺好的。 面试官:… 把门关上。 我:… 要干嘛?先关上再说。 面试官:我说出去把门关上。 我:what ?,夺门而去 文章目录01 前言02 RESTful的来源03 RESTful6大原则1. C-S架构2. 无状态3.统一的接
为啥国人偏爱Mybatis,而老外喜欢Hibernate/JPA呢?
关于SQL和ORM的争论,永远都不会终止,我也一直在思考这个问题。昨天又跟群里的小伙伴进行了一番讨论,感触还是有一些,于是就有了今天这篇文。 声明:本文不会下关于Mybatis和JPA两个持久层框架哪个更好这样的结论。只是摆事实,讲道理,所以,请各位看官勿喷。 一、事件起因 关于Mybatis和JPA孰优孰劣的问题,争论已经很多年了。一直也没有结论,毕竟每个人的喜好和习惯是大不相同的。我也看
SQL-小白最佳入门sql查询一
一 说明 如果是初学者,建议去网上寻找安装Mysql的文章安装,以及使用navicat连接数据库,以后的示例基本是使用mysql数据库管理系统; 二 准备前提 需要建立一张学生表,列分别是id,名称,年龄,学生信息;本示例中文章篇幅原因SQL注释略; 建表语句: CREATE TABLE `student` ( `id` int(11) NOT NULL AUTO_INCREMENT, `
项目中的if else太多了,该怎么重构?
介绍 最近跟着公司的大佬开发了一款IM系统,类似QQ和微信哈,就是聊天软件。我们有一部分业务逻辑是这样的 if (msgType = "文本") { // dosomething } else if(msgType = "图片") { // doshomething } else if(msgType = "视频") { // doshomething } else { // dosho
“狗屁不通文章生成器”登顶GitHub热榜,分分钟写出万字形式主义大作
一、垃圾文字生成器介绍 最近在浏览GitHub的时候,发现了这样一个骨骼清奇的雷人项目,而且热度还特别高。 项目中文名:狗屁不通文章生成器 项目英文名:BullshitGenerator 根据作者的介绍,他是偶尔需要一些中文文字用于GUI开发时测试文本渲染,因此开发了这个废话生成器。但由于生成的废话实在是太过富于哲理,所以最近已经被小伙伴们给玩坏了。 他的文风可能是这样的: 你发现,
程序员:我终于知道post和get的区别
IT界知名的程序员曾说:对于那些月薪三万以下,自称IT工程师的码农们,其实我们从来没有把他们归为我们IT工程师的队伍。他们虽然总是以IT工程师自居,但只是他们一厢情愿罢了。 此话一出,不知激起了多少(码农)程序员的愤怒,却又无可奈何,于是码农问程序员。 码农:你知道get和post请求到底有什么区别? 程序员:你看这篇就知道了。 码农:你月薪三万了? 程序员:嗯。 码农:你是怎么做到的? 程序员:
《程序人生》系列-这个程序员只用了20行代码就拿了冠军
你知道的越多,你不知道的越多 点赞再看,养成习惯GitHub上已经开源https://github.com/JavaFamily,有一线大厂面试点脑图,欢迎Star和完善 前言 这一期不算《吊打面试官》系列的,所有没前言我直接开始。 絮叨 本来应该是没有这期的,看过我上期的小伙伴应该是知道的嘛,双十一比较忙嘛,要值班又要去帮忙拍摄年会的视频素材,还得搞个程序员一天的Vlog,还要写BU
加快推动区块链技术和产业创新发展,2019可信区块链峰会在京召开
      11月8日,由中国信息通信研究院、中国通信标准化协会、中国互联网协会、可信区块链推进计划联合主办,科技行者协办的2019可信区块链峰会将在北京悠唐皇冠假日酒店开幕。   区块链技术被认为是继蒸汽机、电力、互联网之后,下一代颠覆性的核心技术。如果说蒸汽机释放了人类的生产力,电力解决了人类基本的生活需求,互联网彻底改变了信息传递的方式,区块链作为构造信任的技术有重要的价值。   1
程序员把地府后台管理系统做出来了,还有3.0版本!12月7号最新消息:已在开发中有github地址
第一幕:缘起 听说阎王爷要做个生死簿后台管理系统,我们派去了一个程序员…… 996程序员做的梦: 第一场:团队招募 为了应对地府管理危机,阎王打算找“人”开发一套地府后台管理系统,于是就在地府总经办群中发了项目需求。 话说还是中国电信的信号好,地府都是满格,哈哈!!! 经常会有外行朋友问:看某网站做的不错,功能也简单,你帮忙做一下? 而这次,面对这样的需求,这个程序员
Android 9.0系统新特性,对刘海屏设备进行适配
其实Android 9.0系统已经是去年推出的“老”系统了,这个系统中新增了一个比较重要的特性,就是对刘海屏设备进行了支持。一直以来我也都有打算针对这个新特性好好地写一篇文章,但是为什么直到拖到了Android 10.0系统都发布了才开始写这篇文章呢?当然,一是因为我这段时间确实比较忙,今年几乎绝大部分的业余时间都放到写新书上了。但是最主要的原因并不是这个,而是因为刘海屏设备的适配存在一定的特殊性
网易云6亿用户音乐推荐算法
网易云音乐是音乐爱好者的集聚地,云音乐推荐系统致力于通过 AI 算法的落地,实现用户千人千面的个性化推荐,为用户带来不一样的听歌体验。 本次分享重点介绍 AI 算法在音乐推荐中的应用实践,以及在算法落地过程中遇到的挑战和解决方案。 将从如下两个部分展开: AI 算法在音乐推荐中的应用 音乐场景下的 AI 思考 从 2013 年 4 月正式上线至今,网易云音乐平台持续提供着:乐屏社区、UGC
【技巧总结】位运算装逼指南
位算法的效率有多快我就不说,不信你可以去用 10 亿个数据模拟一下,今天给大家讲一讲位运算的一些经典例子。不过,最重要的不是看懂了这些例子就好,而是要在以后多去运用位运算这些技巧,当然,采用位运算,也是可以装逼的,不信,你往下看。我会从最简单的讲起,一道比一道难度递增,不过居然是讲技巧,那么也不会太难,相信你分分钟看懂。 判断奇偶数 判断一个数是基于还是偶数,相信很多人都做过,一般的做法的代码如下
日均350000亿接入量,腾讯TubeMQ性能超过Kafka
整理 | 夕颜出品 | AI科技大本营(ID:rgznai100) 【导读】近日,腾讯开源动作不断,相继开源了分布式消息中间件TubeMQ,基于最主流的 OpenJDK8开发的
8年经验面试官详解 Java 面试秘诀
    作者 | 胡书敏 责编 | 刘静 出品 | CSDN(ID:CSDNnews) 本人目前在一家知名外企担任架构师,而且最近八年来,在多家外企和互联网公司担任Java技术面试官,前后累计面试了有两三百位候选人。在本文里,就将结合本人的面试经验,针对Java初学者、Java初级开发和Java开发,给出若干准备简历和准备面试的建议。   Java程序员准备和投递简历的实
面试官如何考察你的思维方式?
1.两种思维方式在求职面试中,经常会考察这种问题:北京有多少量特斯拉汽车? 某胡同口的煎饼摊一年能卖出多少个煎饼? 深圳有多少个产品经理? 一辆公交车里能装下多少个乒乓球? 一
相关热词 c# 输入ip c# 乱码 报表 c#选择结构应用基本算法 c# 收到udp包后回包 c#oracle 头文件 c# 序列化对象 自定义 c# tcp 心跳 c# ice连接服务端 c# md5 解密 c# 文字导航控件
立即提问