现在想尝试在一个单个隐藏层的神经网络中。把传统的线性权重"WX+b"加上激活函数的复合函数, 替换成任意高次函数f(x)(例如"Ax^3+Bx^2+Cx+d"),然后进行前向传播与反向传播请问是否可行。求相关的理论参考与pytorch实现的相关资料?
2条回答 默认 最新
- 艾鹤 2022-06-08 09:30关注
替换成其他激活函数理论上是可以的,不过也有可能无法收敛,最好是高次的非线性函数,这样才好拟合
pytorch实现的话,参考李沐老师的系列教程应该就差不多了:
10 多层感知机 + 代码实现 - 动手学深度学习v2_哔哩哔哩_bilibili 动手学深度学习 v2 - 从零开始介绍深度学习算法和代码实现课程主页:https://courses.d2l.ai/zh-v2/教材:https://zh-v2.d2l.ai/ https://www.bilibili.com/video/BV1hh411U7gn本回答被题主选为最佳回答 , 对您是否有帮助呢?解决 无用评论 打赏 举报 编辑记录
悬赏问题
- ¥15 反激PWM控制芯片调研
- ¥15 Python for loop减少运行时间
- ¥15 fluent模拟物质浓度udf
- ¥15 Collection contains no element matching the predicate
- ¥20 冻品电商平台的搜索是怎么实现的
- ¥15 如何搞一个可以控制、显示马达频率
- ¥15 WPF动态创建页面内容
- ¥15 如何对TBSS的结果进行统计学的分析已完成置换检验,如何在最终的TBSS输出结果提取除具体值及如何做进一步相关性分析
- ¥15 SQL数据库操作问题
- ¥15 Matlab安装yalmip和cplex功能安装失败