比如利用5层20个神经元的DNN,效果可能比860、5*60的还要好,查了下,zhihu也有类似结论,就是层数和神经元数并不是越多越好。现在想把这个结论或者说明,写在论文里,大概陈述如下:" 经我们的实验结果表明,并不是层数和神经元数越多,网络的拟合效果越好,这是因为随着层数和神经元数量的增加,训练难度增大,网络难以收敛。" 上面这段话是我自己看网上写的总结的,但是希望能有论文佐证引用一下比较靠谱,尤其是后半句的原因解释,请问有推荐的论文么?
利用深度神经网络做回归分析,经实验表明不一定层数越深,神经元数量越大,拟合效果就越好。请问这个结论有相关文献可以佐证么?自己的结论不敢写在论文里。
- 写回答
- 好问题 0 提建议
- 追加酬金
- 关注问题
- 邀请回答
-
1条回答 默认 最新
悬赏问题
- ¥15 echarts动画效果失效的问题。官网下载的例子。
- ¥60 许可证msc licensing软件报错显示已有相同版本软件,但是下一步显示无法读取日志目录。
- ¥15 Attention is all you need 的代码运行
- ¥15 一个服务器已经有一个系统了如果用usb再装一个系统,原来的系统会被覆盖掉吗
- ¥15 使用esm_msa1_t12_100M_UR50S蛋白质语言模型进行零样本预测时,终端显示出了sequence handled的进度条,但是并不出结果就自动终止回到命令提示行了是怎么回事:
- ¥15 前置放大电路与功率放大电路相连放大倍数出现问题
- ¥30 关于<main>标签页面跳转的问题
- ¥80 部署运行web自动化项目
- ¥15 腾讯云如何建立同一个项目中物模型之间的联系
- ¥30 VMware 云桌面水印如何添加