LSTM输入数据格式问题

输入样本train_x1 标签train_y1
样本与标签都是(20000,10)
然后我reshape变成三维(20000,1,10)报错 求该如何修改格式
输入十个数值,输出十个数值。

train_x1 = np.reshape(train_x1, (train_x1.shape[0],1,train_x1.shape[1]))
train_y1 = np.reshape(train_y1, (train_y1.shape[0],1,train_y1.shape[1]))

model = Sequential()

model.add(LSTM(50, input_shape=(train_x1.shape[1], train_x1.shape[2])))

model.add(Dense(10))

model.compile(loss='mse', optimizer='adam')

model.fit(train_x1, train_y1, nb_epoch = 300, batch_size = 10)

model.save_weights('LSTM.model')

0

2个回答

model.add(LSTM(50, input_shape=(train_x1.shape[1], train_x1.shape[2])))
->
model.add(LSTM(50, input_shape=(train_x1.shape[0],, train_x1.shape[1], train_x1.shape[2])))

或者还有一个办法就是不用input_shape,而是指定下timesteps=1

具体看下keras的文档。

1
a819411321
a819411321 thanks
8 个月之前 回复

你好 可以看下你这个前面的代码吗?

0
Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
lstm数据格式
RNN是什么样子呢?网上一大堆我就不重复了,我这里大致画了一个展开形式的 n n那输入是什么样子呢?比如一句话“有趣的灵魂重两百斤”,计算机不认识字的,只认识数字。我们将每个字按照字典的位置编码,假如字典有1000个字,“有”这个字再字典的第100个位置,“趣”在字典的第107个位置,依次类推,我们可以将这句话编码成(我瞎写的)nnnn[100,107,109,111,245,345,567,78...
190402-通过例子理解LSTM中的数据格式
在回归问题中的Keras-LSTM 在监督学习中的样本需要是以下3D格式:rnrnreshape input to be 3D [samples, timesteps, features]rnrnrnrn准备数据rnrn对于下面数据,样本个数m=10,每个样本的维度n=2,变量名称为var1 、var2。rndata = a = np.linspace(1,20,num=20).reshape((10,2))rnrn...
详细说明用keras建立训练自己数据的LSTM----语音方向
最近在研究用keras实现一个LSTM来训练自己的数据(LSTM的基本原理请自行补习),一开始自己用的数据用DNN来训练,后来要转向LSTM,因为两者的输入是不一样的,所以有些焦头烂额,DNN的输入格式为input:(samples,dim),是二维数据,而LSTM的输入格式为input:(samples,time_step,dim)是三维的,所以,要先理解如何把DNN的输入转换为LSTM的输入,
用LSTM做时间序列预测的思路,tensorflow代码实现及传入数据格式
首先推荐一个对LSTM一些类函数进行说明的博客: 函数说明nn我的目标是用LSTM进行某种水果价格的预测,一开始我的做法是,将一种水果前n天的价格作为变量传入,即这样传入的DataFrame格式是有n+1列,结果训练出来的效果不尽人意,完全比不上之前我用ARIMA时间序列去拟合价格曲线.nn之后继续浏览了很多博客,资料什么的,终于明白了一个参数:time_step的意义,LSTM,长短时训练网络,...
Keras LSTM输入的input的特征和时间纬度
input_shape=(128,40)#第一位是时间序列timesteps,第二个40是特征数,之前搞反了训练很慢,调回来准确率就高了。最好不要用reshape调,用np.transpose()转置调,reshape不懂会不会打乱数据的时序和特征附上LSTM_modeldef LSTM_model():n n_classes = 6n inp=Input(shape=(128,40)...
长短期记忆(LSTM)系列_LSTM的数据准备(1)——如何重塑Keras中长短期内存网络的输入数据
源码地址:nnhttps://github.com/yangwohenmai/LSTM/tree/master/%E9%95%BF%E7%9F%AD%E6%9C%9F%E8%AE%B0%E5%BF%86(LSTM)/LSTM%E7%9A%84%E6%95%B0%E6%8D%AE%E5%87%86%E5%A4%87/%E9%87%8D%E5%A1%91Keras%E4%B8%AD%E9%95%BF%...
长短期记忆(LSTM)系列_LSTM的数据准备(4)——如何归一化标准化长短期记忆网络的数据
导读:nn在训练神经网络(例如长短期记忆复现神经网络)时,可能需要缩放序列预测问题的数据。nn当输入数据序列分布并不标准,或者变化幅度(标准差)过大时,这会减慢网络的学习和收敛速度,也会阻碍网络的学习效率。nn因此您需要了解如何归一化和标准化序列预测数据,以及如何确定将哪中形式用于输入和输出变量。nn您可能需要考虑两种类型的系列缩放:归一化和标准化。nn这些都可以使用scikit-learn库来实...
训练LSTM——一路的坎坷
很久没写博客了,今天必须记录一下这个大转折。nn最近一直在研究语言模型,找了一个做文本生成的LSTM,想用来检测句子的流畅性,把训练集替换成我们自己的,然后就开始训练模型。nn对于一个LSTM小白,刚开始很排斥去搞明白它的原理,然而,事实证明,我早晚得弄明白它,绕不过去,还不如早早研究,不至于浪费这么长时间,这次真真的给了我一个教训啊!!!nn重点来了:nn1. 网上做文本生成的训练集一般都是散文...
Python时间序列LSTM预测系列教程(3)-单变量
LSTM Model DevelopmentnnnLSTM基础nnnKeras 中 LSTM 的层维护一个 batch 的状态n一个 batch = 来自训练数据的确定个数的 rows , 他确定了在更新整个网络权重前需要处理的 pattern 的个数n默认的,batchs 间的状态会清空,通过调用 reset_states() 可以控制什么时候清除 LSTM 层状态nnnL
深度学习-LSTM网络-代码-示例
一、 LSTM网络原理n要点介绍 n(1)LSTM网络用来处理带“序列”(sequence)性质的数据,比如时间序列的数据,像每天的股价走势情况,机械振动信号的时域波形,以及类似于自然语言这种本身带有顺序性质的由有序单词组合的数据。 n(2)LSTM本身不是一个独立存在的网络结构,只是整个神经网络的一部分,即由LSTM结构取代原始网络中的隐层单元部分。 n(3)LSTM网络具有“记忆性”。其原因在于
【3D计算机视觉】LSTM-CF——基于RGB-D的场景标记
《LSTM-CF: Unifying Context Modeling and Fusion with LSTMs for RGB-D Scene Labeling》论文笔记rn一、文章摘要rnRGB-D场景的语义标记对于许多人工智能应用至关重要(例如感知机器人)。其需要同时从感测的颜色通道(RGB)和深度通道(D)生成像素级别的标签图。(效果类似如下)rnrn本文作者通过以下方式解决了这个RGB-D的场...
[LSTM学习笔记1]LSTM数据准备
       本系列笔记是学习《Long Short Term Memory Networks with Python》时练习和记录,该书主要针对各种LSTM网络使用keras进行实现,我可以将自己码的Jupyter notebook代码和笔记分享。nn一.Prepare Numeric Datann缩放数据通常有两种方式:normalizaiton和standardization,都可以使用sc...
LSTM各个时间序列样本长度不相等该怎么处理
图片来源于Keras中文文档n
深度学习(Deep Learning)读书思考七:循环神经网络二(LSTM)
概述
LSTM时序预测时归一化问题
LSTM时序预测时归一化问题nn在做项目时,发现数据归一化对模型训练结果影响很大,其中还涉及到很多细节问题。以下通过空气污染预测的例子来进行说明。(数据和代码网上都有提供)nn描述:在空气污染预测例子中,共有8个属性,利用过去24小时的污染数据和天气条件预测下一个时刻(t+1)可能的污染值nn问题:nn不对数据进行归一化处理时,loss(mae)将会很大,lstm模型也训练不好,如下图所示:nnn...
LSTM面试
核心:细胞状态 三个门控 去除或增加信息到细胞状态 选择让信息有多少通过nn1、每个时刻weight同时变化nn2、每个时刻weight相互影响nn3、参数(八个)nn输入门 weight bias 决定更新信息 决定什么值更新nn遗忘门 weight bias 确定丢弃信息nn输出门 weight bias 输出信息nn原始cell(rnn部分)weight bias 创建新的候选值到状态中nn...
从循环神经网络(RNN)到LSTM网络
从循环神经网络(RNN)到LSTM网络  通常,数据的存在形式有语音、文本、图像、视频等。因为我的研究方向主要是图像识别,所以很少用有“记忆性”的深度网络。怀着对循环神经网络的兴趣,在看懂了有关它的理论后,我又看了Github上提供的tensorflow实现,觉得收获很大,故在这里把我的理解记录下来,也希望对大家能有所帮助。本文将主要介绍RNN相关的理论,并引出LSTM网络结构(关于对tensorf
LSTM部分问题汇总详解
题记LSTM(Long Short-Term Memroy Cell)是一种RNN网络的改进结构,相较于传统的RNN网络在处理长序列时有着很多优势这也让它在自然语言处理的多种任务中有着很广范的运用。关于LSTM的具体介绍有很多,大家也可以从我之前的一篇博客  基于Tensorflow的LSTM-CNN文本分类模型  中查看。同时最近看到很多朋友对于LSTM的具体运用产生了一些疑问,而这些问题也是我...
【QLBD】LSTM情感分析实验复现(一)one-hot encoding
注1:参考学习  科学空间论坛   苏剑林 的博文rn注2:记录实验复现细节,并根据版本更新对代码作出修正。rn注3:python3.5;keras2.0.9rnrn【QLBD】LSTM情感分析实验复现(一)one-hot encodingrnrn【QLBD】LSTM情感分析实验复现(二)分词&one-hotrnrn【QLBD】LSTM情感分析实验复现(三)one embeddingrnrn【QL
长短期记忆(LSTM)系列_LSTM的特性学习(3)——如何构建“序列 —>序列”(多对多)的LSTM网络模型
导读:nn文中提到了回声序列,回声序列是一个数列自身数据之间构建了映射关系nn本文演示了如何生成一个随机序列,并且转化成热编码,并且将其构建成一个有输入输出映射的,监督型学习的数据结构。nn第二个例子给出了一个“序列 —>序列”的LSTM网络预测模型。nn第三个例子给出了 针对one hor encoder序列,加入编码器 - 解码器结构的LSTM网络模型nn源码地址:nnhttps://g...
PyTorch版LSTM遇到的问题
1.Pack_padded_sequenceValueError解决方法:https://discuss.pytorch.org/t/char-lstm-for-sequence-tagging/12802https://discuss.pytorch.org/t/pack-padded-sequence-valueerror/3261/3input data是LongTensor, Pack_p...
简单理解LSTM
      文章对LSTM入门的基础知识进行讲解,希望有助于您的理解。nn      LSTM(长短时记忆网络)的理解要从简单的RNN(循环神经网络)说起。nn     RNN理解nn     学习LSTM我们经常会先看到RNN的例子,因为LSTM是RNN的一种优化的变形。下图是RNN的结构:nnnn       参数:  X:输入   h:输出   下标t:当前的时刻nn       横向的箭头...
对于LSTM输入层、隐含层及输出层参数的个人理解
LSTM输入层要求的维度是三维的,其中包含三个参数:batch_size, input_dim和time_step。隐含层有一个参数:n_hidden。输出层有两个参数:n_hidden和output_dim。下面举两个例子:利用LSTM识别MNIST手写数字集和LSTM时间序列分析,谈谈个人对这些参数含义的理解。nn1. 利用LSTM识别MNIST手写数字集nnnnn_input = 28 #...
RNN学习不到长距离信息& LSTM学习到长距离信息
RNN推导参考:http://www.wildml.com/2015/10/recurrent-neural-networks-tutorial-part-3-backpropagation-through-time-and-vanishing-gradients/rnrnrnrnrnrn说明:对于RNN为什么会学不到长距离信息,可以说是RNN会遇到梯度消失的问题,梯度消失的问题,本质上还是使用B
LSTM的输入输出
n n n 作者:Scofield链接:https://www.zhihu.com/question/41949741/answer/318771336来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。你说不理解LSTM输入输出问题,我感觉你其实应该是对Recurrent NNs的问题。之前有发现身边小伙伴确实不太容易理解Recurrent...
【keras】函数式(Functional)模型学习以LSTM为例构建多输入和多输出模型及完整实例(二)
多输入和多输出模型:使用函数式模型的一个典型场景是搭建多输入、多输出的模型。nn考虑这样一个模型。我们希望预测Twitter上一条新闻会被转发和点赞多少次。模型的主要输入是新闻本身,也就是一个词语的序列。但我们还可以拥有额外的输入,如新闻发布的日期等。这个模型的损失函数将由两部分组成,辅助的损失函数评估仅仅基于新闻本身做出预测的情况,主损失函数评估基于新闻和额外信息的预测的情况,即使来自主损失函数
基于TensorFlow实现的以多维特征输入的RNN(LSTM)工程
本工程为基于TensorFlow实现的以多维特征作为输入且输出同样为多维的RNN(LSTM)模型。
LSTM—GRU—indRNN 避免与解决梯度弥散与爆炸--Batch Normalization
nnnnnn1. LSTM避免RNN的梯度消失(gradient vanishing)n2. LSTM避免RNN的梯度爆炸n3. GRU 与 LSTM 比较nnnnnnnnnnnnnn1. LSTM避免RNN的梯度消失(gradient vanishing)nnRNN的本质是在网络内部维护了一个状态 StStS_t,其中 ttt 表示时间且 StStS_t 可递归计算。 nnn传统的RNN总是...
非常简易的keras函数式(Functional)模型学习以LSTM为例构建多输入和多输出模型的完整实例
非常简易的keras函数式(Functional)模型学习以LSTM为例构建多输入和多输出模型的完整实例,可以让新手完美掌握整个模型构建的流程
pytorch rnn输入 一个batch内的序列pad到同一长度
import torch nfrom torch.autograd import Variable nfrom torch import nn n nbatch_size = 4 nmax_length = 3 nhidden_size = 2 nn_layers = 1 nfeature_dim = 1 n n# container nbatch_in = torch.ze...
LSTM按句子长度在输出层取平均代码
n# 取平均(BiLSTM)nnnself.out = tf.concat(self.lstm_outputs, -1)nn#self.sequence_length 句子长度,self. inputs 输入的句子nnnself.output = tf.reduce_sum(self.out, 1) / tf.reshape(n tf.cast(self.sequence_length, d...
使用深度双向LSTM模型构造社区问答系统
本文探讨了如何使用深度双向LSTM网络来解决问答社区的问题。
LSTM网络多维预测
利用LSTM循环神经网络对多维数据进行预测,先对数据进行归一化处理,划分为训练集、测试集,用4个参数预测一个参数值
如何理解lstm的输入输出
例如这样一个数据集合,总共100条句子,每个句子20个词,每个词都由一个80维的向量表示。在lstm中,单个样本即单条句子输入下(shape是 [1 , 20, 80]),假如设定每一个time step的输入是一个词(当然这不一定,你也可以调成两个词或者更多个数的词),则在t0时刻是第一个时间步,输入x0则为代表一条句子(一个样本)中第1个词的80维向量...
Caffe:LSTM使用
Caffe LSTM使用nname: "BasicLstm"nnlayer {n name: "data"n type: "HDF5Data"n top: "data" //输入数据n top: "cont" //数据切分(不是1就是0)n top: "label"//对应的标签n include {n phase: TRAINn }n hdf5_data_param {
lstm多变量预测问题
利用LSTM做预测例子实现易懂,以了解,比较容易入门,。
keras在构建LSTM模型时对变长序列的处理
print(np.shape(X))#(1920, 45, 20)rnrnX=sequence.pad_sequences(X, maxlen=100, padding='post')rnprint(np.shape(X))#(1920, 100, 20)rnrnrnmodel = Sequential()nmodel.add(Masking(mask_value=0,input_shape=(1
长短期记忆(LSTM)系列_LSTM的数据准备(6)——如何处理序列预测问题中的缺失时间步长(附两个完整LSTM实例)
导读:nn本文讨论分析了输入数据中,有数据缺失的情况如何处理n一般有两种情况,分别是对缺失值进行替换和学习,忽略对缺失值的学习n同时文章演示了对于缺失值得补全方法。n文末附带两个LSTM代码,比较了两种对缺失值不同处理方式的网络模型优劣nn源码地址:nnhttps://github.com/yangwohenmai/LSTM/tree/master/%E9%95%BF%E7%9F%AD%E6%9C...
使用词向量 + lstm 做情感分析
这次的数据集来自github,万分感激原作者的收集,数据集是京东的购物评论,分为正面情绪以及负面情绪的两个文本。nn其中,正面情绪样本947条, 负面情绪样本2142条。nn使用全部的单词,做词向量的训练。词向量使用gensim训练,非常地方便和快捷,强推强推!nn先上词向量的代码,词向量维数100维:nnnfrom gensim.models.word2vec import Word2Vecni...
深度学习笔记2:关于LSTM神经网络输入输出的理解
我们在理解RNN或者LSTM的时候,对它们的输入和输出的维度都很迷惑,下面是我结合代码和网上的一些资料进行理解n正常的全连接层网络拓扑是这样的:nn有输入层、隐层和输出层,隐层中有神经元,图中每个参数都跟全部的神经元有链接。n接下来看下LSTM的拓扑图:nnn...
文章热词 机器学习教程 Objective-C培训 交互设计视频教程 颜色模型 设计制作学习
相关热词 mysql关联查询两次本表 native底部 react extjs glyph 图标 区块链问题 ios视频开发问题