冰棍不加糖 2022-01-03 18:27 采纳率: 0%
浏览 14
已结题

神经网络的本质是回归么?循环神经网络呢?

刚开始接触机器学习中的神经网络这一块,尤其是时间序列预测这一块。在我的理解中,神经网络里的输入输出就是x和y的关系,通过各个神经元之间的权重等参数、激活函数的处理,本质上是不是可以理解为就是x和y的回归关系,只是关系式比较复杂而且是隐式的,因为训练结束后参数就固定了,一定存在一个固定的关系来描述x和y?
那如果这样的话RNN和LSTM等模型具有记忆功能也只是在训练过程中会构建和过去多阶历史值相关的关系,训练结束后这个关系也固定了,它和一般神经网络的区别体现在哪里呢,是不是也可以理解成就是复杂的回归关系?
求解答!

  • 写回答

0条回答 默认 最新

    报告相同问题?

    问题事件

    • 系统已结题 1月11日
    • 创建了问题 1月3日

    悬赏问题

    • ¥200 csgo2的viewmatrix值是否还有别的获取方式
    • ¥15 Stable Diffusion,用Ebsynth utility在视频选帧图重绘,第一步报错,蒙版和帧图没法生成,怎么处理啊
    • ¥15 请把下列每一行代码完整地读懂并注释出来
    • ¥15 pycharm运行main文件,显示没有conda环境
    • ¥15 寻找公式识别开发,自动识别整页文档、图像公式的软件
    • ¥15 为什么eclipse不能再下载了?
    • ¥15 编辑cmake lists 明明写了project项目名,但是还是报错怎么回事
    • ¥15 关于#计算机视觉#的问题:求一份高质量桥梁多病害数据集
    • ¥15 特定网页无法访问,已排除网页问题
    • ¥50 如何将脑的图像投影到颅骨上