Cchuangmao
2021-09-16 21:35
采纳率: 100%
浏览 20

深度学习训练模型的时候一个epoch的时间为什么会越来越长?

在自己的电脑上训练模型的时候一个epoch的时间越来越长,到最后一个epoch需要一个多小时,租了个服务器跑同样的代码就不会,应该不是代码的问题,问了别人好像都没有这种情况,请问为什么,该怎么解决?代码是用pytorch写的。

  • 收藏

1条回答 默认 最新

  • Cchuangmao 2021-09-18 22:07
    已采纳

    在训练的时候用visdom可视化每个iterator的loss值,把visdom换成tensorbord发现问题解决了,应该是用visdom记录的时候占用了电脑的进程。

    打赏 评论

相关推荐 更多相似问题