交运菜鸟学编程 2022-12-05 12:40 采纳率: 66.7%
浏览 27
已结题

weight_decay

SGD优化器

img

optimizer = torch.optim.SGD(param, lr, weight_decay)
(1)优化器的weight_decay参数就是L2惩罚项的lambda系数吗?
(2)weight_decay的设置有范围区间吗?
(3)weight_decay设置过大会造成欠拟合吗?

  • 写回答

2条回答 默认 最新

  • ShowMeAI 2022-12-05 13:30
    关注

    望采纳

    weight_decay不是lambda
    
    SGD是一种常用的机器学习算法,全称是随机梯度下降。它通过不断地迭代,在每一次迭代中更新模型的参数来最小化损失函数。
    
    weight_decay是一种正则化技术,它的目的是为了防止模型过拟合,也就是模型在训练数据上表现得非常好,但是在测试数据上的表现并不好的情况。
    
    Weight decay的做法是在每一次迭代时,将模型的参数向“正确”的方向移动,从而避免过度拟合。在具体实现中,就是将模型参数中的每个值都乘以一个小于1的系数,从而使得模型参数不会变得过大。
    
    weight_decay如其名,是权重衰减,因此不会设置过大,过大的话会影响模型拟合,是可能欠拟合的。
    
    本回答被题主选为最佳回答 , 对您是否有帮助呢?
    评论
查看更多回答(1条)

报告相同问题?

问题事件

  • 系统已结题 12月13日
  • 已采纳回答 12月5日
  • 创建了问题 12月5日