深渊20 2023-08-24 11:56 采纳率: 0%
浏览 4

关于BN层的一个疑问

BN层的作用是使数据趋向正态分布,防止训练过程中参数更新时导致深层网络输入数据的分布混乱,使得网络难以拟合。

虽然数据经过BN层后趋向正态分布,但数据输入下一层网络之前会经过激活函数。以ReLU为例,负数部分进行截断,这样经过激活函数后数据好像又不是趋于正态分布了?

  • 写回答

2条回答 默认 最新

  • oldmao_2000 领域专家: 人工智能技术领域 2023-08-24 13:48
    关注

    根据需要模型可以有多个BN层

    评论

报告相同问题?

问题事件

  • 创建了问题 8月24日