weixin_38256708 2018-07-23 13:37 采纳率: 100%
浏览 2392
已采纳

自己写的深度学习框架为什么运行这么慢?

通过matlab写的卷积网络框架,然后复杂的操作比如卷积池化等通过.cu文件写的,
调用GPU加速,外面的层为粗粒度的,运行的速度和TensorFlow差一个数量级,也用到
GPU加速了,怎么会慢这么多,会不会因为由于每一层数据都会在GPU和CPU中搬运导致?
现有的框架是不是每个batch的数据前向反向传播完才会释放一次显存?

求大神指点迷津!

  • 写回答

2条回答 默认 最新

  • threenewbee 2018-07-23 14:00
    关注

    一种没有证实的小道消息:nvidia是一个很鸡贼的公司。大伙儿编写gpu代码,使用的是nvidia提供的cuda sdk和编译器。但是nvidia留了一手,它内部有更好的编译器但是没有拿出来。
    nvidia自己开发的cudnn就是基于内部的编译器,所以性能要比大伙儿用cuda sdk自己写的要好。
    目前tensorflow在内的大部分框架,似乎都没有自己去编写gpu的代码,而是直接调用的cudnn。

    本回答被题主选为最佳回答 , 对您是否有帮助呢?
    评论
查看更多回答(1条)

报告相同问题?

悬赏问题

  • ¥15 Arcgis相交分析无法绘制一个或多个图形
  • ¥15 seatunnel-web使用SQL组件时候后台报错,无法找到表格
  • ¥15 fpga自动售货机数码管(相关搜索:数字时钟)
  • ¥15 用前端向数据库插入数据,通过debug发现数据能走到后端,但是放行之后就会提示错误
  • ¥30 3天&7天&&15天&销量如何统计同一行
  • ¥30 帮我写一段可以读取LD2450数据并计算距离的Arduino代码
  • ¥15 飞机曲面部件如机翼,壁板等具体的孔位模型
  • ¥15 vs2019中数据导出问题
  • ¥20 云服务Linux系统TCP-MSS值修改?
  • ¥20 关于#单片机#的问题:项目:使用模拟iic与ov2640通讯环境:F407问题:读取的ID号总是0xff,自己调了调发现在读从机数据时,SDA线上并未有信号变化(语言-c语言)