Cchuangmao 2021-09-16 21:35 采纳率: 100%
浏览 513
已结题

深度学习训练模型的时候一个epoch的时间为什么会越来越长?

在自己的电脑上训练模型的时候一个epoch的时间越来越长,到最后一个epoch需要一个多小时,租了个服务器跑同样的代码就不会,应该不是代码的问题,问了别人好像都没有这种情况,请问为什么,该怎么解决?代码是用pytorch写的。

  • 写回答

1条回答 默认 最新

  • Cchuangmao 2021-09-18 22:07
    关注

    在训练的时候用visdom可视化每个iterator的loss值,把visdom换成tensorbord发现问题解决了,应该是用visdom记录的时候占用了电脑的进程。

    本回答被题主选为最佳回答 , 对您是否有帮助呢?
    评论

报告相同问题?

问题事件

  • 系统已结题 9月26日
  • 已采纳回答 9月18日
  • 创建了问题 9月16日