研研研冲冲冲 2023-03-30 19:20 采纳率: 59.1%
浏览 9

有监督学习损失的代码

有监督学损失的代码以及原理什么的有没有指路呀,看了好几篇弄进去loss都是nan

  • 写回答

1条回答 默认 最新

  • CSDN-Ada助手 CSDN-AI 官方账号 2023-03-30 23:28
    关注
    • 这有个类似的问题, 你可以参考下: https://ask.csdn.net/questions/7763484
    • 这篇博客你也可以参考下:【机器学习技巧】-训练过程中,loss参数出现NAN怎么解决?解决方案汇总?
    • 除此之外, 这篇博客: 基于模型结构增扩的增量学习方法 归纳和详解中的 2.3 模型结构与loss设计 部分也许能够解决你的问题, 你可以仔细阅读以下内容或跳转源博客中阅读:
    • 每新来一个增量任务t,就新训练一个特征提取网络Ft和分类器Hta,然后并入上一个特征提取网络中作为新的特征提取网络。其中,Mask Parameter即前文提及的Channel-Level Mask-Based Pruning Strategy,对特征进行采样,从而降低特征维度,减少存储和运算负担。

      训练loss即交叉熵,用于对整个分类器进行训练(这里的分类器Ht相当于原始分类器Ht和新增分类器Hta的合并),其中D是训练样本与memory中样本的并集。

      除此自外,作者引入了LHta辅助loss,只对分类器的新增部分Hta进行训练,

    评论

报告相同问题?

问题事件

  • 创建了问题 3月30日

悬赏问题

  • ¥15 结构功能耦合指标计算
  • ¥20 visual studio中c语言用ODBC链接SQL SERVER
  • ¥50 AI大模型精调(百度千帆、飞浆)
  • ¥15 非科班怎么跑代码?如何导数据和调参
  • ¥15 福州市的全人群死因监测点死亡原因报表
  • ¥15 Altair EDEM中生成一个颗粒,并且各个方向没有初始速度
  • ¥15 系统2008r2 装机配置推荐一下
  • ¥15 悬赏Python-playwright部署在centos7上
  • ¥15 psoc creator软件有没有人能远程安装啊
  • ¥15 快速扫描算法求解Eikonal方程咨询