weixin_38256708 2018-07-23 13:37 采纳率: 100%
浏览 2393
已采纳

自己写的深度学习框架为什么运行这么慢?

通过matlab写的卷积网络框架,然后复杂的操作比如卷积池化等通过.cu文件写的,
调用GPU加速,外面的层为粗粒度的,运行的速度和TensorFlow差一个数量级,也用到
GPU加速了,怎么会慢这么多,会不会因为由于每一层数据都会在GPU和CPU中搬运导致?
现有的框架是不是每个batch的数据前向反向传播完才会释放一次显存?

求大神指点迷津!

  • 写回答

2条回答 默认 最新

  • threenewbee 2018-07-23 14:00
    关注

    一种没有证实的小道消息:nvidia是一个很鸡贼的公司。大伙儿编写gpu代码,使用的是nvidia提供的cuda sdk和编译器。但是nvidia留了一手,它内部有更好的编译器但是没有拿出来。
    nvidia自己开发的cudnn就是基于内部的编译器,所以性能要比大伙儿用cuda sdk自己写的要好。
    目前tensorflow在内的大部分框架,似乎都没有自己去编写gpu的代码,而是直接调用的cudnn。

    本回答被题主选为最佳回答 , 对您是否有帮助呢?
    评论
查看更多回答(1条)

报告相同问题?

悬赏问题

  • ¥15 画两个图 python或R
  • ¥15 在线请求openmv与pixhawk 实现实时目标跟踪的具体通讯方法
  • ¥15 八路抢答器设计出现故障
  • ¥15 请教一下c语言的代码里有一个地方不懂
  • ¥15 opencv 无法读取视频
  • ¥15 用matlab 实现通信仿真
  • ¥15 按键修改电子时钟,C51单片机
  • ¥60 Java中实现如何实现张量类,并用于图像处理(不运用其他科学计算库和图像处理库))
  • ¥20 5037端口被adb自己占了
  • ¥15 python:excel数据写入多个对应word文档