我使用Pytorch编写了一个语义分割网络,使用torchsummary查看了模型参数量,发现全部参数都是可训练的,没有不可训练参数,请问是正常情况吗?如果不是,是什么原因引起的?
收起
当前问题酬金
¥ 0 (可追加 ¥500)
支付方式
扫码支付
支付金额 15 元
提供问题酬金的用户不参与问题酬金结算和分配
支付即为同意 《付费问题酬金结算规则》
这是很正常的啊,可以选择 freeze 部分层的参数,也可以所有参数都进行训练,这种也叫 fine-tuning
报告相同问题?