cuiguanjun 2019-11-11 00:42 采纳率: 0%
浏览 7531

深度学习训练过程,学习率设置低,训练准确率就高

图像识别过程,使用深度学习算法,训练阶段,将学习率设置的越低,训练准确率增长的越快。当然,也越容易过拟合。搞不懂其中的原因,为什么低学习率会使训练准确率增长的迅速?

  • 写回答

4条回答 默认 最新

  • 关注

    首先一点,我习惯讲问题,很啰嗦。因为我想把问题讲的连之前不知道的人都可以清楚明白。你不介意就继续看吧。
    第一个:我们训练模型其实在做什么。
    神经网络模型本质就是一个算法,一个组合的算法。我们训练神经网络其实是在调参,让这个算法符合我们想要的效果。
    第二个:什么是过拟合
    网络调参是依据样本去调整算法。当我们根据样本调参出来的算法太过符合样本时,就对新数据效果不好。比如我分辩是不是狗。我样本都是二哈,这样调整的网络参数都是二哈的。现在识别新数据——金毛,就会识别金毛不是狗。
    这就是过拟合。调出来的参数太符合样本了。
    第三个:解决方法
    过拟合就是参数调的太符合样本,所以解决的方法就有两方面
    1.样本。 原本样本只有二哈的,导致参数符合二哈,现在增加样本种类和大小,这样参数调整出来就符合更多狗的。
    2.参数。 让参数调整的没那么好。这就衍生出正则化、dropout等方法。正则化就是在loss函数加一项,这样出来的参数就有那一项的影响,不会太符合样本特征了。
    dropout就是在每次迭代训练时随机丢一些单元,这次不参与,这样每次模拟的就不是基于全部,出来的参数就不会太符合样本了。
    其实无论哪种方法都是基于参数调整方面出发。

    评论

报告相同问题?

悬赏问题

  • ¥15 孟德尔随机化结果不一致
  • ¥15 apm2.8飞控罗盘bad health,加速度计校准失败
  • ¥15 求解O-S方程的特征值问题给出边界层布拉休斯平行流的中性曲线
  • ¥15 谁有desed数据集呀
  • ¥20 手写数字识别运行c仿真时,程序报错错误代码sim211-100
  • ¥15 关于#hadoop#的问题
  • ¥15 (标签-Python|关键词-socket)
  • ¥15 keil里为什么main.c定义的函数在it.c调用不了
  • ¥50 切换TabTip键盘的输入法
  • ¥15 可否在不同线程中调用封装数据库操作的类