2 yl305237731 yl305237731 于 2017.09.16 20:17 提问

tensorflow中如何取消反向传播? 5C

我在微调网络,比如我想取消第三层卷积层的反向传播,就是第一层第二层不更新,只更新后面的,caffe配置文件可以设置,tensorflow怎么改的呢?
比如:我尝试 b=tf.Variable(0.,name="b",trainable=True) ....... b.__setattriabute('trainable',False) 提示没有这个属性

3个回答

clinuxyj
clinuxyj   2017.09.18 01:14

调了整层之后你把上一次的前面两层的权值变成以前的,不就行了?

qq_15098375
qq_15098375   2017.09.16 21:21

init(initial_value=None, trainable=True, collections=None, validate_shape=True, caching_device=None, name=None, variable_def=None, dtype=None, expected_shape=None, import_scope=None)可以考虑这个吗

qq_35123983
qq_35123983   2018.05.21 21:14

这样不是每次迭代都要恢复么,请问要怎么做到啊,谢谢您

Csdn user default icon
上传中...
上传图片
插入图片
准确详细的回答,更有利于被提问者采纳,从而获得C币。复制、灌水、广告等回答会被删除,是时候展现真正的技术了!
其他相关推荐
TensorFlow进阶--实现反向传播
使用TensorFlow的一个优势是,它可以维护操作状态和基于反向传播自动地更新模型变量。下面我们介绍两个例子,来实现反向传播示例一:输入数据为:x满足均值为1,方差为0.1的正态分布输出y为10模型为:y=a×x损失函数为L2正则损失函数理论结果a应为10首先我们导入计算模块,并创建计算图会话,然后生成数据、创建占位符和变量A#创建计算图会话 sess = tf.Session() #生成数...
TensorFlow实现反向传播
使用TensorFlow的一个优势是,它可以维护操作状态和基于反向传播自动地更新模型变量。 TensorFlow通过计算图来更新变量和最小化损失函数来反向传播误差的。这步将通过声明优化函数(optimization function)来实现。一旦声明好优化函数,TensorFlow将通过它在所有的计算图中解决反向传播的项。当我们传入数据,最小化损失函数,TensorFlow会在计算图中根据状态相
TensorFlow实战系列3--实现反向传播
在前向传播的样例程序中,所有变量的取值都是随机的。在使用神经网络解决实际的分类或者回归问题时需要更好地设置参数取值。使用监督学习的方式设置神经网络参数需要有一个标注好的训练数据集。以判断零件是否合格为例,这个标注好的训练数据集就是收集的一批合格零件和一批不合格零件。监督学习最重要的思想就是,在已知答案的标注数据集上,模型给出的预测结果要尽量接近真实的答案。通过调整神经网络中的参数对训练数据进行拟合
Tensorflow使用流程小例子 ——反向传播
总结下来,流程有以下几点: 1:生成数据 2:初始化占位符和变量 3:创建损失函数 4:定义一个优化器算法 5:最后,通过迭代样本数据,更新变量
实现属于自己的TensorFlow(二) - 梯度计算与反向传播
本文中将主要介绍对于模型优化非常重要的反向传播算法以及反向传播算法中梯度计算的实现。
tensorflow只使用tensor值,不参与反向传播
详见: https://www.tensorflow.org/api_docs/python/tf/stop_gradient 使用stop_gradient函数,其输出值与输入相同,但不会参与反向传播中的梯度计算。
tensorflow中的反向传播函数的定义
在使用tensorflow的时候需要用到反向传播函数,下面是反向传播函数的汇总以及说明,持续更新备忘ing————————————强行是分割线————————————意思是————————————强行是分割线————————————————————————强行是分割线————————————...
只用TensorFlow的反向传播实现的RNN
rnn.py def simple_rnn(cell,inputs,init_state=None,batch_size=None,dtype=None): state = init_state if state is None: state = cell.zero_state(batch_size, dtype) outputs = [] f
tensorflow的反向传播(backpropagation)
由于最近在啃EMCapsule(EMCapsule论文)的源码(EMcapsule源码),或者说在啃tensorflow源码,由于没有系统学习过tensorflow,所以看起代码那叫一个蛋疼菊紧,特别是看到capsule_em.py 中的em_routing时,感到很疑惑,如此复杂的操作,这个network是如何实现反向传播的。关于反向传播的知识,可以参考反向传播,注意tensor的反向传播中实际...
tensorflow检查op是否可导(反向传播)
1.安装最新版tf--tensorflow1.5,gpu版本需要CUDA8和cudnn6,命令如下  GPU版:sudo pip3 install tf-nightly-gpu  CPU版:sudo pip3 install tf-nightly 对应pip网站:https://pypi.python.org/pypi/tf-nightly-gpu 2.编写代码进行测试,主要包括可导函数s