Cchuangmao 2021-09-16 21:35 采纳率: 100%
浏览 405
已结题

深度学习训练模型的时候一个epoch的时间为什么会越来越长?

在自己的电脑上训练模型的时候一个epoch的时间越来越长,到最后一个epoch需要一个多小时,租了个服务器跑同样的代码就不会,应该不是代码的问题,问了别人好像都没有这种情况,请问为什么,该怎么解决?代码是用pytorch写的。

  • 写回答

1条回答 默认 最新

  • Cchuangmao 2021-09-18 22:07
    关注

    在训练的时候用visdom可视化每个iterator的loss值,把visdom换成tensorbord发现问题解决了,应该是用visdom记录的时候占用了电脑的进程。

    本回答被题主选为最佳回答 , 对您是否有帮助呢?
    评论

报告相同问题?

问题事件

  • 系统已结题 9月26日
  • 已采纳回答 9月18日
  • 创建了问题 9月16日

悬赏问题

  • ¥15 深度学习根据CNN网络模型,搭建BP模型并训练MNIST数据集
  • ¥15 lammps拉伸应力应变曲线分析
  • ¥15 C++ 头文件/宏冲突问题解决
  • ¥15 用comsol模拟大气湍流通过底部加热(温度不同)的腔体
  • ¥50 安卓adb backup备份子用户应用数据失败
  • ¥20 有人能用聚类分析帮我分析一下文本内容嘛
  • ¥15 请问Lammps做复合材料拉伸模拟,应力应变曲线问题
  • ¥30 python代码,帮调试,帮帮忙吧
  • ¥15 #MATLAB仿真#车辆换道路径规划
  • ¥15 java 操作 elasticsearch 8.1 实现 索引的重建