weixin_38256708 2018-07-23 13:37 采纳率: 100%
浏览 2392
已采纳

自己写的深度学习框架为什么运行这么慢?

通过matlab写的卷积网络框架,然后复杂的操作比如卷积池化等通过.cu文件写的,
调用GPU加速,外面的层为粗粒度的,运行的速度和TensorFlow差一个数量级,也用到
GPU加速了,怎么会慢这么多,会不会因为由于每一层数据都会在GPU和CPU中搬运导致?
现有的框架是不是每个batch的数据前向反向传播完才会释放一次显存?

求大神指点迷津!

  • 写回答

2条回答 默认 最新

  • threenewbee 2018-07-23 14:00
    关注

    一种没有证实的小道消息:nvidia是一个很鸡贼的公司。大伙儿编写gpu代码,使用的是nvidia提供的cuda sdk和编译器。但是nvidia留了一手,它内部有更好的编译器但是没有拿出来。
    nvidia自己开发的cudnn就是基于内部的编译器,所以性能要比大伙儿用cuda sdk自己写的要好。
    目前tensorflow在内的大部分框架,似乎都没有自己去编写gpu的代码,而是直接调用的cudnn。

    本回答被题主选为最佳回答 , 对您是否有帮助呢?
    评论
查看更多回答(1条)

报告相同问题?

悬赏问题

  • ¥15 MATLAB怎么通过柱坐标变换画开口是圆形的旋转抛物面?
  • ¥15 寻一个支付宝扫码远程授权登录的软件助手app
  • ¥15 解riccati方程组
  • ¥15 display:none;样式在嵌套结构中的已设置了display样式的元素上不起作用?
  • ¥30 用arduino开发esp32控制ps2手柄一直报错
  • ¥15 使用rabbitMQ 消息队列作为url源进行多线程爬取时,总有几个url没有处理的问题。
  • ¥15 Ubuntu在安装序列比对软件STAR时出现报错如何解决
  • ¥50 树莓派安卓APK系统签名
  • ¥65 汇编语言除法溢出问题
  • ¥15 Visual Studio问题