风来我也来 2021-12-13 14:46 采纳率: 0%
浏览 13

tensorflow 自定义损失 梯度为0

输入是one_hot编码, 1类OK + N类 NG   。 OK固定是one_hot编码 第一位

OK和NG之间分对更重要,因此增加 自定义损失,尝试提升性能
如果设置, weight[0] =0.0 , weight[1]  = 1.0  。 loss有值,但是,应用到调整网络梯度时, 网络所有层的梯度都是0 。 即,如代码示意损失,已经丢失帝都回传信息。
问题:怎样修改,才能实现带梯度回传信息的损失计算?

loss_value = self.augment_loss.loss(y,logits)#此处loss_value有值

当进一步,计算 可train参数的梯度时

grads = tape.gradient(loss_value, self.model.trainable_weights) # grads 全是0
  • 写回答

1条回答 默认 最新

  • aabbabababaa 2021-12-13 16:31
    关注

    这是什么代码,调尺寸的?

    评论

报告相同问题?

问题事件

  • 创建了问题 12月13日

悬赏问题

  • ¥100 为什么这个恒流源电路不能恒流?
  • ¥15 有偿求跨组件数据流路径图
  • ¥15 写一个方法checkPerson,入参实体类Person,出参布尔值
  • ¥15 我想咨询一下路面纹理三维点云数据处理的一些问题,上传的坐标文件里是怎么对无序点进行编号的,以及xy坐标在处理的时候是进行整体模型分片处理的吗
  • ¥15 CSAPPattacklab
  • ¥15 一直显示正在等待HID—ISP
  • ¥15 Python turtle 画图
  • ¥15 stm32开发clion时遇到的编译问题
  • ¥15 lna设计 源简并电感型共源放大器
  • ¥15 如何用Labview在myRIO上做LCD显示?(语言-开发语言)