2 weixin 40098880 weixin_40098880 于 2017.09.10 22:11 提问

神经网络隐层和隐层节点数与输入层节点数 5C

一篇论文,输入节点3个,但是有四个隐藏,节点数分别为1000,700,300,150。训练集和测试集分别为3万条。隐层数和隐层节点数是论文里明确提出的,但是这样合理吗?,是不是我理解错了输入节点数?论文是IEEE的。

1个回答

bobxx
bobxx   2018.02.27 10:05

你的神经网络没有具体说明那我就认为是多层感知机,输入节点只有三个说明输入的特征向量是三维的,隐藏层数和他们的节点数只是表达了模型的复杂程度,实际上是不需要比输入节点少的,当然像输入是三维向量的问题确实不多见,但是理论上是可行的。

Csdn user default icon
上传中...
上传图片
插入图片
准确详细的回答,更有利于被提问者采纳,从而获得C币。复制、灌水、广告等回答会被删除,是时候展现真正的技术了!
其他相关推荐
隐含层节点数的设置
<br />   (3)当训练集确定之后,输入层结点数和输出层结点数随之而确定,首先遇到的一个十分重要而又困难的问题是如何优化隐层结点数和隐层数。实验表明,如果隐层结点数过少,网络不能具有必要的学习能力和信息处理能力。反之,若过多,不仅会大大增加网络结构的复杂性(这一点对硬件实现的网络尤其重要),网络在学习过程中更易陷入局部极小点,而且会使网络的学习速度变得很慢。隐层结点数的选择问题一直受到神经网络研究工作者的高度重视。Gorman指出隐层结点数s与模式数N的关系是:s=log2N;Kolmogorov定理
神经网络隐藏层节点个数
根据经验公式,逐步试验法确定隐层节点数.,逐步试验得到隐层节点数就是先设置一个初始值,然后在这个值的基础上逐渐增加,比较每次网络的预测性能,选择性能最好的对应的节点数作为隐含层神经元节点数。 在确定隐层节点数时必须满足下列条件: (1)隐层节点数必须小于N-1(其中N为训练样本数),否则,网络模型的系统误差与训练样本的特性无关而趋于零,即建立的网络模型没有泛化能力,也没有任何实
经网络中隐层数和隐层节点数问题的讨论
神经网络中隐层数和隐层节点数问题的讨论 一 隐层数         一般认为,增加隐层数可以降低网络误差(也有文献认为不一定能有效降低),提高精度,但也使网络复杂化,从而增加了网络的训练时间和出现“过拟合”的倾向。一般来讲应设计神经网络应优先考虑3层网络(即有1个隐层)。一般地,靠增加隐层节点数来获得较低的误差,其训练效果要比增加隐层数更容易实现。对于没有隐层的神经网络模型,实际上就是一个线性
神经网络中隐层数和隐层节点数问题的讨论
神经网络中隐层数和隐层节点数问题的讨论 一 隐层数         一般认为,增加隐层数可以降低网络误差(也有文献认为不一定能有效降低),提高精度,但也使网络复杂化,从而增加了网络的训练时间和出现“过拟合”的倾向。一般来讲应设计神经网络应优先考虑3层网络(即有1个隐层)。一般地,靠增加隐层节点数来获得较低的误差,其训练效果要比增加隐层数更容易实现。对于没有隐层的神经网络模型,实际上就是一个
神经网络隐含层节点数
一般有几个经验公式
为什么要用稀疏自编码而不直接设更少的隐层节点
刚学自编码,以下是本人关于题目问题的一点思考。自编码器是一种非常简单的BP神经网络,是一种无监督学习算法。使用一个三层(只有一个隐含层)的自编码网络,然后设置隐含节点的数量少于输入层节点,就能够轻松地实现特征降维。如图:refer to: Deep Learning(深度学习)学习笔记整理系列之(四) 如果隐藏节点比可视节点(输入、输出)少的话,由于被迫的降维,自编码器会自动习得训练样本的特征
RNNLIB中LSTM节点描述
LSTM隐含层只需设定Block个数。 一个block可以有多个cell(但目前一般都是一个block里一个cell) 对于二维数据,一个block需要固定的5个输入信号,分别是:输入门计算用,输出门计算用,遗忘门1计算,遗忘门2计算(因为是二维信息所以有2个遗忘门,一个维度一个),信号变换计算用(真正计算输出用的)。 所以一个block可以看做有5个输入节点,1个输出节点的结构。 而实际训
【神经网络 隐含层节点数的设置】如何设置神经网络隐藏层 的神经元个数
当训练集确定之后,输入层结点数和输出层结点数随之而确定,首先遇到的一个十分重要而又困难的问题是如何优化隐层结点数和隐层数。实验表明,如果隐层结点数过少,网络不能具有必要的学习能力和信息处理能力。反之,若过多,不仅会大大增加网络结构的复杂性(这一点对硬件实现的网络尤其重要),网络在学习过程中更易陷入局部极小点,而且会使网络的学习速度变得很慢。隐层结点数的选择问题一直受到神经网络研究工作者的高度重视。方
对于LSTM输入层、隐含层及输出层参数的个人理解
LSTM输入层要求的维度是三维的,其中包含三个参数:batch_size, input_dim和time_step。隐含层有一个参数:n_hidden。输出层有两个参数:n_hidden和output_dim。下面举两个例子:利用LSTM识别MNIST手写数字集和LSTM时间序列分析,谈谈个人对这些参数含义的理解。 1. 利用LSTM识别MNIST手写数字集 n_input = 28 #...
使用TensorFlow定义拥有一个隐藏层的神经网络
咳咳,我们已经搞定了softmax regression模型,但是在测试集上的准确度确实不如人意,很气……我们已经不满足于仅仅建立一个模型了,我们现在需要更高精度的学习模型。现在尝试着在模型里面添加一层隐藏层吧!数据还是手写字体的数据,先看看拥有一层隐藏层的神经网络(多层感知机也叫)示意图吧!     Boom!博主懒得网上找图了,直接动手……原谅我笨拙的字体和手法……接下去我们看看数据流图,就