wangziLynne 2023-02-26 21:12 采纳率: 0%
浏览 29

yolov7导入注意力机制出现Missing key(s) in state_dict:

在给yolov7加Senet注意力机制练习的时候,遇到了在train之后,getmap出现了报错

RuntimeError: Error(s) in loading state_dict for YoloBody:
Missing key(s) in state_dict: "feat1_att.fc.0.weight", "feat1_att.fc.2.weight", "feat2_att.fc.0.weight", "feat2_att.fc.2.weight", "feat3_att.fc.0.weight", "feat3_att.fc.2.weight", "upsample_att1.fc.0.weight", "upsample_att1.fc.2.weight", "upsample_att2.fc.0.weight", "upsample_att2.fc.2.weight".

然后我就去打印模型和state_dict,结果注意力模块在相应的位置和state_dict中都有,我在想是不是训练模型中最终保存的权值不存在相对应权值,我就把pth文件打开看了一下,果然没有注意力模块的权值。想问一下为什么

  • 写回答

2条回答 默认 最新

  • CodeBytes 2023-02-26 22:05
    关注

    该回答引用ChatGPT

    这种情况通常是由于在模型训练和保存过程中出现了错误导致的。

    具体来说,可能是由于在训练过程中没有正确地初始化注意力模块的权重,或者在保存权重时出现了错误,导致注意力模块的权重没有正确地保存到权重文件中。这些问题都可能导致加载权重文件时出现缺失的权重参数。

    为了解决这个问题,建议检查模型定义和训练过程中注意力模块的实现。特别是注意力模块的权重应该被正确地初始化,并在训练过程中被正确地更新。如果模型训练的过程中没有输出相关的错误信息,可以通过在训练过程中增加调试输出来检查注意力模块的权重是否被正确地计算和更新。

    另外,在保存权重时,可以使用PyTorch提供的torch.save函数保存整个模型或者模型的部分权重,确保注意力模块的权重被正确地保存到权重文件中。同时,也可以在加载权重文件之前,检查权重文件中是否包含了模型的所有权重参数,避免出现缺失的权重参数。

    评论

报告相同问题?

问题事件

  • 创建了问题 2月26日

悬赏问题

  • ¥15 电视版的优酷可以设置电影连续播放吗?
  • ¥50 复现论文;matlab代码编写
  • ¥30 echarts 3d地图怎么实现一进来页面散点数据和卡片一起轮播
  • ¥15 数字图像的降噪滤波增强
  • ¥15 心碎了,为啥我的神经网络训练的时候第二个批次反向传播会报错呀,第一个批次都没有问题
  • ¥15 MSR2680-XS路由器频繁卡顿问题
  • ¥15 VB6可以成功读取的文件,用C#读不了
  • ¥15 如何使用micpyhon解析Modbus RTU返回指定站号的湿度值,并确保正确?
  • ¥15 C++ 句柄后台鼠标拖动如何实现
  • ¥15 有人会SIRIUS 5.8.0这个软件吗