XXX2YYY 2024-01-11 19:58 采纳率: 0%
浏览 38

为什么神经网络训练到一定epoch之后,准确率大幅下降

为什么神经网络训练到一定epoch之后,准确率大幅下降,然后又开始缓慢上升,但是达不到下降前最好的准确率

  • 写回答

1条回答 默认 最新

  • CSDN-Ada助手 CSDN-AI 官方账号 2024-01-11 22:17
    关注

    【相关推荐】



    • 这篇文章讲的很详细,请看:神经网络中一个epoch里发生了什么
    • 除此之外, 这篇博客: 【语义分割】深度学习中常见概念回顾(全大白话解释,一读就能懂!)中的 1.1 Epoch 部分也许能够解决你的问题, 你可以仔细阅读以下内容或跳转源博客中阅读:

      定义:一个epoch指代所有的数据送入网络中完成一次前向计算及反向传播的过程。简而言之:训练集中的全部样本/数据 “喂” 给网络一次,就叫做一个epoch

      补充1:在训练时,将所有数据迭代训练一次是不够的,需要反复多次才能拟合收敛,即:需要把数据集多放入网络训练几次。简而言之:看书看一遍是不够的的,需要多看几遍,神经网络也是。

      补充2: 由于一个epoch常常太大,一次全 “喂” 给网络,计算机无法负荷,我们会将它分成几个较小的batch,即引出了batch size这个概念


    如果你已经解决了该问题, 非常希望你能够分享一下解决方案, 写成博客, 将相关链接放在评论区, 以帮助更多的人 ^-^
    评论

报告相同问题?

问题事件

  • 创建了问题 1月11日