现在想尝试在一个单个隐藏层的神经网络中。把传统的线性权重"WX+b"加上激活函数的复合函数, 替换成任意高次函数f(x)(例如"Ax^3+Bx^2+Cx+d"),然后进行前向传播与反向传播请问是否可行。求相关的理论参考与pytorch实现的相关资料?
2条回答 默认 最新
- 艾鹤 2022-06-08 09:30关注
替换成其他激活函数理论上是可以的,不过也有可能无法收敛,最好是高次的非线性函数,这样才好拟合
pytorch实现的话,参考李沐老师的系列教程应该就差不多了:
10 多层感知机 + 代码实现 - 动手学深度学习v2_哔哩哔哩_bilibili 动手学深度学习 v2 - 从零开始介绍深度学习算法和代码实现课程主页:https://courses.d2l.ai/zh-v2/教材:https://zh-v2.d2l.ai/https://www.bilibili.com/video/BV1hh411U7gn
本回答被题主选为最佳回答 , 对您是否有帮助呢?解决 无用评论 打赏 举报 编辑记录
悬赏问题
- ¥15 请问读取环境变量文件失败是什么原因?
- ¥15 在若依框架下实现人脸识别
- ¥15 网络科学导论,网络控制
- ¥100 安卓tv程序连接SQLSERVER2008问题
- ¥15 利用Sentinel-2和Landsat8做一个水库的长时序NDVI的对比,为什么Snetinel-2计算的结果最小值特别小,而Lansat8就很平均
- ¥15 metadata提取的PDF元数据,如何转换为一个Excel
- ¥15 关于arduino编程toCharArray()函数的使用
- ¥100 vc++混合CEF采用CLR方式编译报错
- ¥15 coze 的插件输入飞书多维表格 app_token 后一直显示错误,如何解决?
- ¥15 vite+vue3+plyr播放本地public文件夹下视频无法加载