发现在机器学习中,很多seq2seq的encoder内,在使用gru前会使用一次rnn或者cnn先进行一次卷积,请问这个cnn或rnn过程有什么用?
1条回答 默认 最新
- Alexxinlu 2021-05-28 00:02关注
这个一般是根据任务特点而定的,不同的任务要根据这个任务的特点来选择网络结构。从你的问题描述,我猜测可能的情况是(以NLP任务为例):1. 使用CNN对字向量进行卷积得到词向量,再将词向量输入到GRU中,是一种从字到词,再从词到句子的层次编码结构;2. GRU是序列结构的神经网络,可以编码语序信息,CNN是是卷积结构,可以获得句子中的局部词组信息,将两种信息结合在一起,可能会得到更好的效果。
P.s. 不知道你说的RNN,是recurrent neural network ,还是recursive neural network。我猜测是后者,因为前者是GRU的前身,后者是编码层次结构的网络。
本回答被题主选为最佳回答 , 对您是否有帮助呢?解决 无用评论 打赏 举报
悬赏问题
- ¥15 微信会员卡等级和折扣规则
- ¥15 微信公众平台自制会员卡可以通过收款码收款码收款进行自动积分吗
- ¥15 随身WiFi网络灯亮但是没有网络,如何解决?
- ¥15 gdf格式的脑电数据如何处理matlab
- ¥20 重新写的代码替换了之后运行hbuliderx就这样了
- ¥100 监控抖音用户作品更新可以微信公众号提醒
- ¥15 UE5 如何可以不渲染HDRIBackdrop背景
- ¥70 2048小游戏毕设项目
- ¥20 mysql架构,按照姓名分表
- ¥15 MATLAB实现区间[a,b]上的Gauss-Legendre积分