Panziqi_intelligence
Panziqi_intelligence
2017-02-15 15:03
采纳率: 100%
浏览 3.4k
已采纳

CUDA kernel函数内for循环引发unspecific launch failure

    我想测试一下CUDA kernel函数中的for循环的循环次数可不可以无限大。于是我写了一个简单的代码如下:
            于是当size像下面的一千万那么大的时候,程序不正确了。显示调用核函数失败 unspecific launch failure
            我用nsight带的工具测试了一下,并不是寄存器超了或者内存分配失败或溢出,只是随着size的增加,每个warp的指令数IPW(Instructions Per Warp)会增加。是不是错误与这个有关?但是下面的程序代码看起来没有什么错误,如果换成C++的话循环多少次都可以,是不是CUDA对kernel有什么限制?我想知道它错误的原因。
            系统:Win10 pro 64bit
            IDE:Visual Studio 2015 community
            CUDA 8.0
            GPU: GTX860M 4GB

#include "cuda_runtime.h"
#include "device_launch_parameters.h"
#include "stdlib.h"
#include
using namespace std;

global void Kernel(double *M_gpu, int size)
{
for (int i = 0; i < size; i++)
{
M_gpu[i] = i / 2 + 6;
}
}

int main()
{
cudaError_t cudaStatus;
//分配CPU空间
int size = 10000000;
double M = (double *)malloc(sizeof(double)*size);
//分配GPU空间
double *M_gpu;
cudaStatus = cudaMalloc((void
*)&M_gpu, sizeof(double)*size);
if (cudaStatus != cudaSuccess)
{
cout << "分配CPU空间失败!" << cudaGetErrorString(cudaStatus) << endl; getchar(); exit(0);
}
//调用核函数
Kernel << > > (M_gpu, size);
cudaDeviceSynchronize();
cudaStatus = cudaGetLastError();
if (cudaStatus != cudaSuccess)
{
cout << "调用核函数失败!" << cudaGetErrorString(cudaStatus) << endl; getchar(); exit(0);
}
//将数据从GPU拷贝回CPU
cudaStatus = cudaMemcpy(M, M_gpu, sizeof(double)*size, cudaMemcpyDeviceToHost);
if (cudaStatus != cudaSuccess)
{
cout << "拷贝数据失败!" << cudaGetErrorString(cudaStatus) << endl; getchar(); exit(0);
}
//END
cout << "Success!" << endl;
getchar();
}

  • 点赞
  • 写回答
  • 关注问题
  • 收藏
  • 邀请回答

3条回答 默认 最新

  • yangbo50304
    yangbo50304 2017-02-17 01:27
    已采纳

    用代码测试了下,跟release没有关系,上网搜索了下,好像是kernel运行超时导致kernel直接退出了。
    你用nsight打开option,修改下General->WDDM TDR Display 设置大一点试试。默认是2s应该。

    点赞 评论
  • devmiao
    devmiao 2017-02-15 15:37
    点赞 评论
  • yangbo50304
    yangbo50304 2017-02-16 03:05

    应该是没有问题的,只要你的block和thread分配够用就行。试着切换成release build试试,debug有可能是分配debuginfo使用的localmem超了。

    点赞 评论

相关推荐