swin语义分割官方文档写的参数量为60m 但是用pytorch自带的sum([param.nelement() for param in model.parameters()])计算却为29.8m 请问这是怎么回事啊 是算法不一样吗
2条回答 默认 最新
- 追cium 2023-03-19 21:58关注
参考GPT和自己的思路:
可能是因为算法和计算参数量的方法不一样导致的。官方文档提供的参数量估计可能是基于模型结构和每个层的参数数量来估计的,而使用pytorch自带的方法计算参数量可能是考虑了某些参数共享等细节。因此两种估计方法的差异是可以预期的。底线是,您可以根据模型参数的实际大小进行优化,而不是仅仅依赖估计量。
本回答被题主选为最佳回答 , 对您是否有帮助呢?解决 无用评论 打赏 举报
悬赏问题
- ¥30 酬劳2w元求合作写文章
- ¥15 在现有系统基础上增加功能
- ¥15 远程桌面文档内容复制粘贴,格式会变化
- ¥15 关于#java#的问题:找一份能快速看完mooc视频的代码
- ¥15 这种微信登录授权 谁可以做啊
- ¥15 请问我该如何添加自己的数据去运行蚁群算法代码
- ¥20 用HslCommunication 连接欧姆龙 plc有时会连接失败。报异常为“未知错误”
- ¥15 网络设备配置与管理这个该怎么弄
- ¥20 机器学习能否像多层线性模型一样处理嵌套数据
- ¥20 西门子S7-Graph,S7-300,梯形图