小白在论坛上看了许多关于lstm预测的例子,发现大多都是预测的未来的前几个时间步比较精确,同时,越靠后的预测值越平缓而不准确。为了应对这个问题,我将原样本放大了一倍(比如0-23小时变为0-23-0-23,,由24小时变为48小时),采用同等模型多重并行预测(只预测前几步),具体措施是:每次采用48个时间的连续24步去预测下一样本的第1步(比如:第一个模型采用前0-23时间,预测下一样本0时刻,第二个模型采用1-23+当天的0,预测下一样本1时刻,重复24次,得到下一天的24小时预测数据),不知道这样是否科学?
贴上一个帖子的例子:
《http://blog.csdn.net/lenglingling/article/details/106409067》
我主要是是想做数据预测,比如天气状况(pm2.5等等),单用前面的样本(24小时pm2.5等影响数据)很难一个模型完整预测未来的24小时pm2.5数据(只有前几个小时比较准确)。我采用的方式是将原来的24小时数据扩大为48小时(还是原来24小时数据,只不过再重复加了同样本的0-23小时的数据,这样数据顺序变成了0-23再加0-23,相当于拷贝了一遍)。但是我读取每个样本数据时,仍然只读连续24行(这样我可以通过这个连续24行,预测下一个样本的比较准确的第1行,重复24次就是24行不同的数据)。简单来说,第一次用0点到23点数据预测第二天0点数据,第二次用当天1点到23点再加当天0点数据,预测第二天1点数据(就是改变所有样本的排列顺序,预测下个样本的首数据)。这样做,我发现了拟合效果还行,但是就是不清楚这个科不科学。这种效果能体现出深度学习的优势吗?