关注
码龄
粉丝数
原力等级 --
被采纳
被点赞
采纳率
yuboyao1012
2022-04-01 22:03
采纳率: 50%
浏览 19
首页
人工智能
LSTM既然有cell state为什么还要有输出门这种机制
神经网络
lstm
rnn
如图所示,cell state可以传输关键信息并且贯穿每个结构,个人认为和“输出”没什么不同
但是LSTM却单独设立了一个输出门来进行输出,虽然有些许差异(对信息进行了筛选),但是有必要这么做吗
写回答
好问题
提建议
追加酬金
关注问题
微信扫一扫
点击复制链接
分享
邀请回答
1
条回答
默认
最新
相关推荐
更多相似问题
RNN 展开实现
LSTM
按时间步迭代时,
有
必要令reuse=true么?
tensorflow
人工智能
深度学习
神经网络
自然语言处理
2019-04-06 15:23
回答 1
已采纳
看你的数据是怎样的,如果每组数据之间在时序上独立,就不要reuse,否可可以use。简单来说,不用reuse,也就是不共享权值不会
有
什么大影响,但是错误用了它,会导致正确率不上升。
请问最后一个
cell
输出
作为q在哪篇参考文献里面的
人工智能
机器学习
深度学习
2022-07-18 00:49
回答 1
已采纳
应该没
有
出处,结合注意力
机制
原理:最后一个
cell
可以表示整个文本的特征,在注意力
机制
里就是一个给定的目标,因此可作为查询值query,然后和key计算权重系数,再和value加权求和。
多特征预测单值的
LSTM
模型的训练
lstm
人工智能
深度学习
2022-04-14 13:54
回答 1
已采纳
有
可能是数据问题,loss是求的sum等情况,或者loss没
有
归一化的话,大于10都是
有
可能的,也就是说你loss的值不作为评判标准,主要是看你loss是否下降,loss是否收敛可以训练完看看,如果过
为什么
LSTM
可以缓解梯度消失?
2021-03-10 23:20
了不起的赵队的博客
早些时候写了一篇关于RNN/
LSTM
的博客,介绍了RNN、
LSTM
的基本原理,其中提到了RNN梯度消失的问题,借机引出了
LSTM
。当时的文章中只写到了
LSTM
可以缓解梯度消失,但没
有
写明原因,原因是当时太想当然了,没
有
仔细...
Keras
LSTM
实现多维输入
输出
时序预测实践详解
2021-03-09 21:32
肖永威的博客
自古以来,我们就希望预知未来,现如今,随着大数据
人工智能
技术的发展,我们早已经不满足传统的同比、环比等数据分析方法,但是时间序列趋势预测的传统算法又很专业,很难用于日常生产经营中。 深度学习神经网络为...
没有解决我的问题,
去提问