不懂,为什么梯度是16384,就很迷,难道梯度=d是a的多少倍嘛?
关注
码龄 粉丝数 原力等级 --
- 被采纳
- 被点赞
- 采纳率

已结题
深度学习有关梯度的问题
收起
- 写回答
- 好问题 0 提建议
- 关注问题
微信扫一扫
点击复制链接分享
- 邀请回答
- 编辑 收藏 删除
- 收藏 举报
2条回答 默认 最新
- 关注
码龄 粉丝数 原力等级 --
- 被采纳
- 被点赞
- 采纳率
林地宁宁 2022-08-02 14:16关注没啥问题,在你 a 的初值为
a = 0.0827
的情况下,d 最终为可以表达为d = (2^14) * a = 16384 * a
,所以 d 关于 a 的偏导数为dd/da = 16384
,属于预期行为。本回答被题主选为最佳回答 , 对您是否有帮助呢? 本回答被专家选为最佳回答 , 对您是否有帮助呢? 本回答被题主和专家选为最佳回答 , 对您是否有帮助呢?解决 2无用举报微信扫一扫
点击复制链接分享
编辑预览轻敲空格完成输入- 显示为
- 卡片
- 标题
- 链接
评论按下Enter换行,Ctrl+Enter发表内容
编辑
预览

轻敲空格完成输入
- 显示为
- 卡片
- 标题
- 链接
报告相同问题?
提交
- 2021-03-11 16:07回答 2 已采纳 在上面给的代码的第164行处插入 optimizer = optimizers.Adam(lr=1e-4) 重新初始化optimizer,这样两个模型训练后的测试结果就一样了,望采纳
- 2020-02-22 06:04回答 2 已采纳 fit函数里面的while循环里的第一个if语句是想判断当前求得的self.w的精度,如果self.w和b的改变小于precision即认为精度达到要求,退出循环! 而第一次while循环时明显
- 2021-04-02 12:08回答 4 已采纳 可能跟叶子节点(最初定义的变量)有关,计算梯度的时候,只有叶子节点才会保留梯度,所有中间节点的grad在计算完backward()的时候为了节约内存都会被清除掉。建议检查最初定义的变量是否有改变。
- 2021-01-06 13:33内容摘自伯禹人工智能AI公益课程 目录: 梯度消失和梯度爆炸的基本概念 考虑到环境因素的其他问题 Kaggle房价预测# 梯度消失、梯度爆炸以及Kaggle房价预测 1、梯度消失和梯度爆炸的基本概念 1.1 梯度消失和梯度爆炸 ...
- 2022-02-08 03:56回答 2 已采纳 这些知识属于工程数学原理的内容,具体分支是最优化理论,您可以参考相关教材。一般地,优化问题可以分为无约束优化和有约束优化,您提到的梯度法和牛顿法都属于无约束优化中的梯度类方法,此外无约束优化中还有非梯
- 2022-05-16 05:12回答 6 已采纳 的确是很多第三方库给你去用,直接import就可以,但是问题是,如果目前出了问题,第三方库无法满足你的需求,你需要进一步修改代码你怎么办?而且这个问题在实际应用中是经常碰见的,这时候你会不会神经网络基
- 2020-03-13 02:00回答 2 已采纳 迭代正常写是x[t+1] = x[t] - η * g[t],η是学习率,g[t]是梯度。 转换下:Δx[t] = x[t+1] - x[t] = - η * g[t] 加入动量(momentum
- 2024-07-10 17:00做个天秤座的程序猿的博客 在深度学习的相关文章中一直提到两个词——梯度和梯度下降。在网上搜索这些词汇时,初学者常常会看到一堆公式和各种复杂的定义,可能会让人打退堂鼓。然而,理解梯度的概念对于掌握深度学习至关重要。今天,我们将用...
- 2022-04-14 06:51回答 1 已采纳 因为下降方向就是梯度的负方向
- 2020-01-25 10:05回答 2 已采纳 https://blog.csdn.net/qq_32241189/article/details/80450741
- 2022-11-07 10:24回答 2 已采纳 你可以参考下这篇文章:用梯度下降算法解决线性回归问题
- 2024-05-28 14:10码上飞扬的博客 在深度学习领域,随着模型层数的增加,我们常常会遇到两个棘手的问题:梯度消失(Vanishing Gradients)和梯度爆炸(Exploding Gradients)。这两个问题严重影响了深度神经网络的训练效率和性能。本文将详细介绍这两...
- 2024-08-27 14:08Essence Z的博客 鞍点是指梯度为零的点,但在该点的Hessian矩阵(二阶导数矩阵)有正有负的特征值,即存在上升和下降的方向。在鞍点处,梯度下降算法无法确定下一步的移动方向。1.局部极小值:梯度存在,但是陷入一个坑里面,无法跳...
- 2024-08-12 10:49FeelTouch Labs的博客 梯度消失问题是深度学习中的一个重要挑战,尤其在训练深层神经网络时尤为突出。当网络层数较多时,反向传播过程中,梯度可能会逐层减小,最终导致前面的层几乎无法更新,从而阻碍网络的学习。这种现象会导致模型性能...
- 2024-03-31 11:35吗喽哥的博客 1.碰到平缓区域,梯度值较小,参数优化变慢2.碰到'鞍点',梯度为0,参数无法优化3.碰到局部最小值,参数不是最优。
- 没有解决我的问题, 去提问
问题事件
联系我们(工作时间:8:30-22:00)
400-660-0108kefu@csdn.net在线客服
- 京ICP备19004658号
- 经营性网站备案信息
公安备案号11010502030143
- 营业执照
- 北京互联网违法和不良信息举报中心
- 家长监护
- 中国互联网举报中心
- 网络110报警服务
- Chrome商店下载
- 账号管理规范
- 版权与免责声明
- 版权申诉
- 出版物许可证
- ©1999-2025北京创新乐知网络技术有限公司