guet_gjl 2022-03-09 22:31 采纳率: 100%
浏览 69
已结题

深度学习将两个网络拼接在一起,前一个作为后一个的输入,反向传播计算loss报错

我在尝试将两个网络连起来用,现在确认单独使用其中一个,屏蔽另一个是能够反向传播,即正常运行,但是两个一起用就报错
loss.backward()这一行报错
RuntimeError: _cdist_backward requires X1 to be contiguous
搜遍了网络找不到原因,请教各位是否有过了解。我是在pytorch框架下运行的python, 使用的loss函数是MSELoss()

img

  • 写回答

2条回答 默认 最新

  • 爱晚乏客游 2022-03-10 09:17
    关注

    这个报错指你的tensor经过拼接或者维度变换之后没有加上.contiguous(),导致内存不连续,你可以在有view(),或者transpose() 之类的地方后面加上.contiguous()看看行不行

    本回答被题主选为最佳回答 , 对您是否有帮助呢?
    评论
查看更多回答(1条)

报告相同问题?

问题事件

  • 系统已结题 3月18日
  • 已采纳回答 3月10日
  • 创建了问题 3月9日

悬赏问题

  • ¥15 RPA正常跑,cmd输入cookies跑不出来
  • ¥15 求帮我调试一下freefem代码
  • ¥15 matlab代码解决,怎么运行
  • ¥15 R语言Rstudio突然无法启动
  • ¥15 关于#matlab#的问题:提取2个图像的变量作为另外一个图像像元的移动量,计算新的位置创建新的图像并提取第二个图像的变量到新的图像
  • ¥15 改算法,照着压缩包里边,参考其他代码封装的格式 写到main函数里
  • ¥15 用windows做服务的同志有吗
  • ¥60 求一个简单的网页(标签-安全|关键词-上传)
  • ¥35 lstm时间序列共享单车预测,loss值优化,参数优化算法
  • ¥15 Python中的request,如何使用ssr节点,通过代理requests网页。本人在泰国,需要用大陆ip才能玩网页游戏,合法合规。