追风筝的人_小智 2022-10-25 22:32 采纳率: 0%
浏览 18

深度学习中为什么设置这几类参数不进行优化

深度学习为什么这几类参数不进行优化
no_decay = ['bias', 'LayerNorm', 'layer_norm']
想问为什么在深度学习中经常设置这几类参数不进行优化
  • 写回答

1条回答 默认 最新

  • 爱晚乏客游 2022-10-26 09:55
    关注

    我搜索了下,你这个应该是transformer里面的吧。
    个人理解,这段代码的作用是在正则化的时候忽略掉这些参数,而正则化的作用就是防止过拟合,从这个方面上来想,正则化的过程通常要求模型的输出对输入数据的变化非常敏感(往往需要在拟合函数中有很大的斜率,这样才能达到反应灵敏的需求)。而从y=WX+b这种格式的公式上面来看,只有权重决定了斜率,而正则化的过程是减少了权重影响,求导之后与bias就无关了,偏置参数有点类似函数截距,对于斜率没有影响。
    所以既然没有影响,那就不需要去浪费资源去计算了。
    如果有其他原因,也请大佬们说一说,咱也想知道为啥,应该不只是简单的为了计算速度吧

    评论 编辑记录

报告相同问题?

问题事件

  • 修改了问题 10月25日
  • 创建了问题 10月25日

悬赏问题

  • ¥15 下载ctorch报错,求解
  • ¥60 iinfercnv 肿瘤进化树
  • ¥15 如何入门学习c语言,单片机
  • ¥15 idea 编辑语言的选择
  • ¥15 Windows下部署Asmjit
  • ¥15 请问双层规划模型的上下层目标函数不一致,是如何保证迭代收敛性的
  • ¥15 微信小程序 前端页面内容搜索
  • ¥15 cpu是如何判断当前指令已经执行完毕,然后去执行下条指令的
  • ¥15 安装visual studio2022时visualstudiosetup启动不了,闪退。问题代号0x0和0x1389
  • ¥30 java spring boot2.5.3版本websocket连不上