weixin_42114386 2021-11-09 16:46 采纳率: 20%
浏览 31
已结题

为什么深度学习训练第一遍训练的结果不好,后续的训练结果好呢

我写了一个拟合算法,loss用的是mse,添加了正则化方法,优化器是adam。
一开始训练了50000个epoch后保存了模型,然后用这个模型又训练了1000个epoch。但是,我发现训练50000个epoch后的mse都比较大,而保存模型后再次训练1000个epocn后的mse能到比较低的程度。这种情况是为什么呢

  • 写回答

0条回答 默认 最新

    报告相同问题?

    问题事件

    • 系统已结题 11月17日
    • 创建了问题 11月9日

    悬赏问题

    • ¥15 python怎么在已有视频文件后添加新帧
    • ¥20 虚幻UE引擎如何让多个同一个蓝图的NPC执行一样的动画,
    • ¥15 fluent里模拟降膜反应的UDF编写
    • ¥15 MYSQL 多表拼接link
    • ¥15 关于某款2.13寸墨水屏的问题
    • ¥15 obsidian的中文层级自动编号
    • ¥15 同一个网口一个电脑连接有网,另一个电脑连接没网
    • ¥15 神经网络模型一直不能上GPU
    • ¥15 pyqt怎么把滑块和输入框相互绑定,求解决!
    • ¥20 wpf datagrid单元闪烁效果失灵