guet_gjl 2022-03-09 22:31 采纳率: 100%
浏览 73
已结题

深度学习将两个网络拼接在一起,前一个作为后一个的输入,反向传播计算loss报错

我在尝试将两个网络连起来用,现在确认单独使用其中一个,屏蔽另一个是能够反向传播,即正常运行,但是两个一起用就报错
loss.backward()这一行报错
RuntimeError: _cdist_backward requires X1 to be contiguous
搜遍了网络找不到原因,请教各位是否有过了解。我是在pytorch框架下运行的python, 使用的loss函数是MSELoss()

img

  • 写回答

2条回答 默认 最新

  • 爱晚乏客游 2022-03-10 09:17
    关注

    这个报错指你的tensor经过拼接或者维度变换之后没有加上.contiguous(),导致内存不连续,你可以在有view(),或者transpose() 之类的地方后面加上.contiguous()看看行不行

    本回答被题主选为最佳回答 , 对您是否有帮助呢?
    评论
查看更多回答(1条)

报告相同问题?

问题事件

  • 系统已结题 3月18日
  • 已采纳回答 3月10日
  • 创建了问题 3月9日

悬赏问题

  • ¥15 PointNet++的onnx模型只能使用一次
  • ¥20 西南科技大学数字信号处理
  • ¥15 有两个非常“自以为是”烦人的问题急期待大家解决!
  • ¥30 STM32 INMP441无法读取数据
  • ¥15 R语言绘制密度图,一个密度曲线内fill不同颜色如何实现
  • ¥100 求汇川机器人IRCB300控制器和示教器同版本升级固件文件升级包
  • ¥15 用visualstudio2022创建vue项目后无法启动
  • ¥15 x趋于0时tanx-sinx极限可以拆开算吗
  • ¥500 把面具戴到人脸上,请大家贡献智慧,别用大模型回答,大模型的答案没啥用
  • ¥15 任意一个散点图自己下载其js脚本文件并做成独立的案例页面,不要作在线的,要离线状态。