复年年 2020-04-26 16:10 采纳率: 0%
浏览 716
已采纳

求助:(Python)小白关于optimizer 的使用问题~

问题1

optimizer = torch.optim.SGD(filter(lambda p:p.requires_grad, net.parameters()),lr=lr, momentum=0.9, weight_decay=WD, nesterov=True) 

optimizer = optim.SGD(net.parameters(), lr=args.lr, momentum=args.momentum,weight_decay=args.weight_decay)

有什么区别么?
一个是值优化器更新net权重的更新梯度(?),一个是直接更新net权重??为什么要这样区别?有什么意义么?

问题2

优化器是默认根据定义到loss的内容与某一权重的求导关系来更新此权重的嘛?

  • 写回答

1条回答 默认 最新

  • threenewbee 2020-04-26 16:13
    关注

    前面加上filter,只更新requires_grad==true的权重,这样可以效率高一些

    优化器是默认是算出梯度theta,指向loss最小的方向,来更新参数的

    本回答被题主选为最佳回答 , 对您是否有帮助呢?
    评论

报告相同问题?

悬赏问题

  • ¥20 机器学习能否像多层线性模型一样处理嵌套数据
  • ¥20 西门子S7-Graph,S7-300,梯形图
  • ¥50 用易语言http 访问不了网页
  • ¥50 safari浏览器fetch提交数据后数据丢失问题
  • ¥15 matlab不知道怎么改,求解答!!
  • ¥15 永磁直线电机的电流环pi调不出来
  • ¥15 用stata实现聚类的代码
  • ¥15 请问paddlehub能支持移动端开发吗?在Android studio上该如何部署?
  • ¥20 docker里部署springboot项目,访问不到扬声器
  • ¥15 netty整合springboot之后自动重连失效