对时间序列数据,一般进行一阶或者二阶差分处理,会丢失部分数据信息,但目的是为了增加其稳定性,便于模型建立与分析。但奇怪的是,在进行了较高阶数的差分运算后居然感觉恢复了很多数据信息(并不像存粹的白噪啊),不胜求解,望指教!
收起
170阶,想想都恐怖,不知道差到哪去了,但是图形上看感觉拟合到原数据去了,随着阶数进一步升高,又开始发散
报告相同问题?