weixin_51793354 2022-07-16 18:37 采纳率: 54.5%
浏览 44
已结题

神经网络隐藏层用reLU,cost小但准确率低问题

一个二分类的神经网络,输出层用sigmoid,隐藏层使用reLU得到的代价cost比使用tanh得到的cost小(),但是reLU的准确率为0.5(数据集和测试集都是0.5左右),tanh的准确率为0.85(数据集为0.9左右,测试集为0.85左右)。cost是计算的交叉熵损失。

出现这种情况(cost更小但准确率低)可能的原因是什么呢?

  • 写回答

4条回答 默认 最新

  • 狗小那条花 2022-07-16 19:19
    关注

    这不科学呀

    评论

报告相同问题?

问题事件

  • 已结题 (查看结题原因) 7月18日
  • 创建了问题 7月16日