赛马丸子 2021-11-25 16:57 采纳率: 50%
浏览 21
已结题

利用深度神经网络做回归分析,经实验表明不一定层数越深,神经元数量越大,拟合效果就越好。请问这个结论有相关文献可以佐证么?自己的结论不敢写在论文里。

比如利用5层20个神经元的DNN,效果可能比860、5*60的还要好,查了下,zhihu也有类似结论,就是层数和神经元数并不是越多越好。现在想把这个结论或者说明,写在论文里,大概陈述如下:" 经我们的实验结果表明,并不是层数和神经元数越多,网络的拟合效果越好,这是因为随着层数和神经元数量的增加,训练难度增大,网络难以收敛。" 上面这段话是我自己看网上写的总结的,但是希望能有论文佐证引用一下比较靠谱,尤其是后半句的原因解释,请问有推荐的论文么?

  • 写回答

1条回答 默认 最新

  • 「已注销」 2021-11-28 09:20
    关注

    肯定是数据集越多越好,神经元越多越好了

    评论

报告相同问题?

问题事件

  • 已结题 (查看结题原因) 3月13日
  • 创建了问题 11月25日

悬赏问题

  • ¥15 echarts动画效果失效的问题。官网下载的例子。
  • ¥60 许可证msc licensing软件报错显示已有相同版本软件,但是下一步显示无法读取日志目录。
  • ¥15 Attention is all you need 的代码运行
  • ¥15 一个服务器已经有一个系统了如果用usb再装一个系统,原来的系统会被覆盖掉吗
  • ¥15 使用esm_msa1_t12_100M_UR50S蛋白质语言模型进行零样本预测时,终端显示出了sequence handled的进度条,但是并不出结果就自动终止回到命令提示行了是怎么回事:
  • ¥15 前置放大电路与功率放大电路相连放大倍数出现问题
  • ¥30 关于<main>标签页面跳转的问题
  • ¥80 部署运行web自动化项目
  • ¥15 腾讯云如何建立同一个项目中物模型之间的联系
  • ¥30 VMware 云桌面水印如何添加