灵剑 2016-03-05 04:09 采纳率: 0%
浏览 1327
已结题

神经网络 反向传导过程

小弟初学神经网络,出现了一个问题,望各位大神解惑。

首先说下编程结果:
用的sigmoid函数,输入输出参数已归一化,w的初始值为[0,1]的随机数
运行后发现,所有w最终都会趋于0,无论输入什么,隐藏层和输出层的值都趋于不变

自己对公式重新分析后存在困惑:
首先,对于最后一层隐藏层,就是直接与输出层相连的隐藏层,有图片说明,而输出层有图片说明,对于所有最后一层隐藏层中的结点,该值是一样的,也就是说,对于最后一层隐藏层所有节点的w的偏导值完全是等倍数修改的。而这又会导致最后一层隐藏层所有节点的w值趋同,前几层理解过程一样,最终导致相同层的w值都近似相等。
请问是哪里理解错了?

  • 写回答

1条回答 默认 最新

报告相同问题?

悬赏问题

  • ¥20 有关区间dp的问题求解
  • ¥15 多电路系统共用电源的串扰问题
  • ¥15 slam rangenet++配置
  • ¥15 有没有研究水声通信方面的帮我改俩matlab代码
  • ¥15 对于相关问题的求解与代码
  • ¥15 ubuntu子系统密码忘记
  • ¥15 信号傅里叶变换在matlab上遇到的小问题请求帮助
  • ¥15 保护模式-系统加载-段寄存器
  • ¥15 电脑桌面设定一个区域禁止鼠标操作
  • ¥15 求NPF226060磁芯的详细资料