为什么神经网络训练到一定epoch之后,准确率大幅下降,然后又开始缓慢上升,但是达不到下降前最好的准确率
1条回答 默认 最新
关注【相关推荐】
- 这篇文章讲的很详细,请看:神经网络中一个epoch里发生了什么
- 除此之外, 这篇博客: 【语义分割】深度学习中常见概念回顾(全大白话解释,一读就能懂!)中的 1.1 Epoch 部分也许能够解决你的问题, 你可以仔细阅读以下内容或跳转源博客中阅读:
定义:一个epoch指代所有的数据送入网络中完成一次前向计算及反向传播的过程。简而言之:训练集中的全部样本/数据 “喂” 给网络一次,就叫做一个epoch
补充1:在训练时,将所有数据迭代训练一次是不够的,需要反复多次才能拟合收敛,即:需要把数据集多放入网络训练几次。简而言之:看书看一遍是不够的的,需要多看几遍,神经网络也是。
补充2: 由于一个epoch常常太大,一次全 “喂” 给网络,计算机无法负荷,我们会将它分成几个较小的batch,即引出了batch size这个概念
如果你已经解决了该问题, 非常希望你能够分享一下解决方案, 写成博客, 将相关链接放在评论区, 以帮助更多的人 ^-^解决 无用评论 打赏 举报