weixin_42511145
因为乌鸦像写字台
采纳率50%
2019-03-08 16:51

RNN 展开实现LSTM按时间步迭代时,有必要令reuse=true么

5
  • 人工智能
  • 自然语言处理
  • tensorflow

我看到很多样例代码中, 展开实现LSTM按时间步迭代时,都如下加上了一句
if timestep > 0:
tf.get_variable_scope().reuse_variables()

with tf.variable_scope('RNN'):
    for timestep in range(timestep_size):
        if timestep > 0:
            tf.get_variable_scope().reuse_variables()
        # 这里的state保存了每一层 LSTM 的状态
        (cell_output, state) = mlstm_cell(X[:, timestep, :], state)

我查了各类RNNCELL类的源代码,发现除了call函数外,还有build函数(此函数似乎是在创建所有的变量),且此函数只调用一次,并且是在call调用之前调用,并且查看源码注释时发现是这样写的:
For backwards compatibility purposes, most RNNCell instances allow their call methods to instantiate variables via tf.get_variable. The underlying variable scope thus keeps track of any variables, and returning cached versions. This is atypical of tf.layer objects, which separate this
part of layer building into a build method that is only called once.

Here we provide a subclass for RNNCell objects that act exactly as
Layer objects do. They must provide a build method and their
call methods do not access Variables tf.get_variable
所以我个人认为这句不需要加,求各位帮忙解答下,该不该加这句话

  • 点赞
  • 写回答
  • 关注问题
  • 收藏
  • 复制链接分享
  • 邀请回答

2条回答

  • u011514451 hpu刘 2年前

    首先说一下有关 “发现除了call函数外,还有build函数,且此函数之调用一次”这个问题,在TensorFlow中需要先构建图或者说神经网络的架构,等图构建完后,在训练或测试阶段数据就会按照构建的图的先后顺序执行,之所以调用一次是因为是在构建图的阶段,之后程序就会执行的。
    其次,reuse=true是为了实现权值共享,这样可以节省空间开销,一般机器上的资源如内存或GPU的现存都是有限的,而神经网络有时候参数量很大,这时候如果不进行权值的共享,机器的资源就会被全部占用甚至不够用,这样一来效率也会下降。所以一般神经网络中都会进行权值共享的。

    点赞 评论 复制链接分享
  • caozhy 从今以后生命中的每一秒都属于我爱的人 2年前

    构造CNN以及LSTM等模型的时候,需要重复使用共享权重
    如果你不要重复使用共享权重,就不要这一句

    点赞 评论 复制链接分享

相关推荐