赛马丸子 2021-11-25 16:57 采纳率: 33.3%
浏览 23
已结题

利用深度神经网络做回归分析,经实验表明不一定层数越深,神经元数量越大,拟合效果就越好。请问这个结论有相关文献可以佐证么?自己的结论不敢写在论文里。

比如利用5层20个神经元的DNN,效果可能比860、5*60的还要好,查了下,zhihu也有类似结论,就是层数和神经元数并不是越多越好。现在想把这个结论或者说明,写在论文里,大概陈述如下:" 经我们的实验结果表明,并不是层数和神经元数越多,网络的拟合效果越好,这是因为随着层数和神经元数量的增加,训练难度增大,网络难以收敛。" 上面这段话是我自己看网上写的总结的,但是希望能有论文佐证引用一下比较靠谱,尤其是后半句的原因解释,请问有推荐的论文么?

  • 写回答

1条回答 默认 最新

  • 「已注销」 2021-11-28 09:20
    关注

    肯定是数据集越多越好,神经元越多越好了

    评论

报告相同问题?

问题事件

  • 已结题 (查看结题原因) 3月13日
  • 创建了问题 11月25日