用梯度下降法优化损失函数,其损失函数是由循环产生,再用Spyder运行当中,
其运行的非常慢,感觉进入了死循环
求大神解答,用梯度下降法优化损失函数,损失函数可以由循环产生吗?
- 写回答
- 好问题 0 提建议
- 追加酬金
- 关注问题
- 邀请回答
-
1条回答 默认 最新
- threenewbee 2018-11-08 04:32关注
损失函数本来都是循环,无论是mse mae crossentropy...,但是关优化算法(反向传播算法)什么事呢。很慢就应该用gpu去加速啊,sgd要设置学习率、动量
本回答被题主选为最佳回答 , 对您是否有帮助呢?解决 无用评论 打赏 举报
悬赏问题
- ¥15 关于#tensorflow#的问题:有没有什么方法可以让机器自己学会像素风格的图片
- ¥15 Oracle触发器字段变化时插入指定值
- ¥15 docker无法进入容器内部
- ¥15 qt https 依赖openssl 静态库
- ¥15 python flask 报错
- ¥15 改个密码引发的项目启动问题
- ¥100 CentOS7单线多拨
- ¥15 debian安装过程中老是出现无法将g21dr复制到g21dr怎么解决呀?
- ¥15 如何用python实现跨工作簿的指定区域批量复制粘贴
- ¥15 基于CH573f的雷迪安CR1400m通讯代码