qq_37981838 2021-08-09 01:06 采纳率: 100%
浏览 31
已结题

关于使用dropout正则化,梯度下降的问题

dropout可以实现正则化可以理解。但是使用dropout,为什么梯度下降能够让网络的整体的损失函数达到最小呢?

dropout随机屏蔽了隐藏层的一些节点,根据剩下的网络,反向传播计算出的梯度,对剩下的参数进行优化。应该是使这个剩下网络的损失函数变小了,下一次循环又是使另一个剩下的网络的损失函数变小。为什么最后,整个网络的损失函数也变小了呢?变得更优了呢?

  • 写回答

0条回答 默认 最新

    报告相同问题?

    问题事件

    • 系统已结题 8月17日
    • 创建了问题 8月9日

    悬赏问题

    • ¥100 任意维数的K均值聚类
    • ¥15 stamps做sbas-insar,时序沉降图怎么画
    • ¥15 unity第一人称射击小游戏,有demo,在原脚本的基础上进行修改以达到要求
    • ¥15 买了个传感器,根据商家发的代码和步骤使用但是代码报错了不会改,有没有人可以看看
    • ¥15 关于#Java#的问题,如何解决?
    • ¥15 加热介质是液体,换热器壳侧导热系数和总的导热系数怎么算
    • ¥100 嵌入式系统基于PIC16F882和热敏电阻的数字温度计
    • ¥15 cmd cl 0x000007b
    • ¥20 BAPI_PR_CHANGE how to add account assignment information for service line
    • ¥500 火焰左右视图、视差(基于双目相机)