用梯度下降法优化损失函数,其损失函数是由循环产生,再用Spyder运行当中,
其运行的非常慢,感觉进入了死循环
求大神解答,用梯度下降法优化损失函数,损失函数可以由循环产生吗?
- 写回答
- 好问题 0 提建议
- 追加酬金
- 关注问题
- 邀请回答
-
1条回答 默认 最新
- threenewbee 2018-11-08 04:32关注
损失函数本来都是循环,无论是mse mae crossentropy...,但是关优化算法(反向传播算法)什么事呢。很慢就应该用gpu去加速啊,sgd要设置学习率、动量
本回答被题主选为最佳回答 , 对您是否有帮助呢?解决 无用评论 打赏 举报
悬赏问题
- ¥15 stata安慰剂检验作图但是真实值不出现在图上
- ¥15 c程序不知道为什么得不到结果
- ¥40 复杂的限制性的商函数处理
- ¥15 程序不包含适用于入口点的静态Main方法
- ¥15 素材场景中光线烘焙后灯光失效
- ¥15 请教一下各位,为什么我这个没有实现模拟点击
- ¥15 执行 virtuoso 命令后,界面没有,cadence 启动不起来
- ¥50 comfyui下连接animatediff节点生成视频质量非常差的原因
- ¥20 有关区间dp的问题求解
- ¥15 多电路系统共用电源的串扰问题