爱学习的草莓熊v 2022-02-25 11:58 采纳率: 0%
浏览 145

Pytorch两个经典网络并联预训练权重问题

如果两个经典网络并联,可以分别加载这两个网络的预训练权重吗?

  • 写回答

1条回答 默认 最新

  • 关注

    应该是可以的,两个网络分别设置对应的参数修改预训练权重

    评论

报告相同问题?

问题事件

  • 创建了问题 2月25日

悬赏问题

  • ¥15 求差集那个函数有问题,有无佬可以解决
  • ¥15 【提问】基于Invest的水源涵养
  • ¥20 微信网友居然可以通过vx号找到我绑的手机号
  • ¥15 寻一个支付宝扫码远程授权登录的软件助手app
  • ¥15 解riccati方程组
  • ¥15 display:none;样式在嵌套结构中的已设置了display样式的元素上不起作用?
  • ¥15 使用rabbitMQ 消息队列作为url源进行多线程爬取时,总有几个url没有处理的问题。
  • ¥15 Ubuntu在安装序列比对软件STAR时出现报错如何解决
  • ¥50 树莓派安卓APK系统签名
  • ¥65 汇编语言除法溢出问题