我做了个语音5分类的实验,最后是softmax函数进行5分类,最后使用了binary_crossentropy作为loss函数,结果意外发现结果会高好多,是不是这样跑出来的数据有问题啊?
关注
码龄 粉丝数 原力等级 --
- 被采纳
- 被点赞
- 采纳率
已采纳
多分类softmax问题使用binary_crossentropy
收起
- 写回答
- 好问题 0 提建议
- 关注问题
微信扫一扫点击复制链接分享
- 邀请回答
- 编辑 收藏 删除 结题
- 收藏 举报
1条回答 默认 最新
- 关注
码龄 粉丝数 原力等级 --
- 被采纳
- 被点赞
- 采纳率
threenewbee 2020-05-26 18:41关注不知道你什么结果高很多,是loss高,还是acc高。一南一北两回事了。
本回答被题主选为最佳回答 , 对您是否有帮助呢? 本回答被专家选为最佳回答 , 对您是否有帮助呢? 本回答被题主和专家选为最佳回答 , 对您是否有帮助呢?解决 无用评论 打赏举报
微信扫一扫点击复制链接分享
评论按下Enter换行,Ctrl+Enter发表内容
报告相同问题?
提交
- 2020-02-22 10:05业余狙击手19的博客 损失函数softmax_cross_entropy、binary_cross_entropy、sigmoid_cross_entropy之间的区别与联系
- tangjunjun-owen的博客 最近我在构建蒸馏相关模型,我重温了一下交叉熵相关内容,也使用pytorch相关函数接口调用,我将对F.binary_cross_entropy()、nn.BCELoss()与nn.BCEWithLogitsLoss()函数做一个说明,同时也简单介绍相对熵的蒸馏F.kl_...
- AI产品观察局的博客 1,用sigmoid作为激活函数,为什么往往损失函数选用binary_crossentropy 参考地址:https://blog.csdn.net/wtq1993/article/details/517414712,softmax与categorical_crossentropy的关系,以及sigmoid与bianry_cross...
- zhangfeng1133的博客 【代码】torch 对应的function kl_div cross_entropy binary_cross_entropy 交叉熵 二分类交叉熵 kl散度。
- 2022-03-10 12:48一颗磐石的博客 BCE(Binary CrossEntropy)损失函数图像二分类问题--->多标签分类Sigmoid和Softmax的本质及其相应的损失函数和任务多标签分类任务的损失函数BCEPytorch的BCE代码和示例总结 图像二分类问题—>多标签分类 二...
- 2021-08-20 10:28あずにゃん的博客 tensorflow 2.0 画出model网络模型的拓扑图 tensorflow 2.0 的回调函数callbacks(TensorBoard、ModelCheckpoint) TensorBoard视觉化网络每层权重分布、视觉化网络层...CE(Cross-Entropy)、BCE(Binary Cross-Ent...
- 2022-05-30 20:56爱编程的喵喵的博客 但使用分布式训练时会报错 tf.keras.losses.Reduction.SUM_OVER_BATCH_SIZE,也可以写作’sum_over_batch_size’:沿着某个轴的平均损失,结果是个标量,使用分布式训练时会报错 name=‘binary_crossentropy’ 2....
- 2024-12-02 10:41IT古董的博客 交叉熵是机器学习中用于衡量两个概率分布之间差异的一种损失函数,广泛用于分类问题(如逻辑回归、多分类神经网络)。交叉熵损失直接来源于信息论,特别适合概率建模问题。交叉熵作为一种衡量概率分布差异的工具,...
- 小酒馆燃着灯的博客 一,可视化理解Binary Cross-Entropy(推荐反复阅读) 介绍 如果你正在训练一个二分类器,很有可能你正在使用的损失函数是二值交叉熵/对数(binary cross-entropy / log)。 你是否想过使用此损失函数到底意味着什么?...
- 重剑DS的博客 推导如下: 对于多分类问题,交叉熵损失函数的一般形式如下: CrossEntropyLoss ( input , target ) = − ∑ i = 1 C target i ⋅ log ( softmax ( input ) i ) \text{CrossEntropyLoss}(\text{\textbf{input}},...
- 2020-03-11 20:40pyxiea的博客 softmax自身导致的数值问题 对于 x=[x1,x2,⋯ ,xn]x=[x_1,x_2,\cdots,x_n]x=[x1,x2,⋯,xn],softmax公式: softmax(x)=[a1,a2,⋯ ,an],ai=exi∑j=1nexjsoftmax(x)=[a_1,a_2,\cdots,a_n], \quad a_i=\frac{e^...
- 2025-06-18 10:18ZhangJiqun&Hoper的博客 本文详细解析了交叉熵损失函数 F.cross_entropy 的计算原理和应用场景。该函数通过比较模型预测概率分布与真实标签的差异来评估分类效果,适用于二分类和多分类任务。二分类输入为2维logits和0/1标签,多分类则扩展...
- 2022-07-21 12:22leSerein_的博客 【深入浅出向】从自信息到熵、从相对熵到交叉熵,nn.CrossEntropyLoss, 交叉熵损失函数与softmax,多标签分类
- 没有解决我的问题, 去提问