guet_gjl 2022-03-09 22:31 采纳率: 100%
浏览 73
已结题

深度学习将两个网络拼接在一起,前一个作为后一个的输入,反向传播计算loss报错

我在尝试将两个网络连起来用,现在确认单独使用其中一个,屏蔽另一个是能够反向传播,即正常运行,但是两个一起用就报错
loss.backward()这一行报错
RuntimeError: _cdist_backward requires X1 to be contiguous
搜遍了网络找不到原因,请教各位是否有过了解。我是在pytorch框架下运行的python, 使用的loss函数是MSELoss()

img

  • 写回答

2条回答 默认 最新

  • 爱晚乏客游 2022-03-10 09:17
    关注

    这个报错指你的tensor经过拼接或者维度变换之后没有加上.contiguous(),导致内存不连续,你可以在有view(),或者transpose() 之类的地方后面加上.contiguous()看看行不行

    本回答被题主选为最佳回答 , 对您是否有帮助呢?
    评论
查看更多回答(1条)

报告相同问题?

问题事件

  • 系统已结题 3月18日
  • 已采纳回答 3月10日
  • 创建了问题 3月9日

悬赏问题

  • ¥15 (标签-STM32|关键词-智能小车)
  • ¥20 关于#stm32#的问题,请各位专家解答!
  • ¥15 (标签-python)
  • ¥15 第一个已完成,求第二个做法
  • ¥20 搭建awx,试了很多版本都有错
  • ¥15 java corba的客户端该如何指定使用本地某个固定IP去连接服务端?
  • ¥15 activiti工作流问题,求解答
  • ¥15 有人写过RPA后台管理系统么?
  • ¥15 Bioage计算生物学年龄
  • ¥20 如何将FPGA Alveo U50恢复原来出厂设置哇?