weixin_51793354 2022-07-16 18:37 采纳率: 54.5%
浏览 43
已结题

神经网络隐藏层用reLU,cost小但准确率低问题

一个二分类的神经网络,输出层用sigmoid,隐藏层使用reLU得到的代价cost比使用tanh得到的cost小(),但是reLU的准确率为0.5(数据集和测试集都是0.5左右),tanh的准确率为0.85(数据集为0.9左右,测试集为0.85左右)。cost是计算的交叉熵损失。

出现这种情况(cost更小但准确率低)可能的原因是什么呢?

  • 写回答

4条回答 默认 最新

  • 狗小那条花 2022-07-16 19:19
    关注

    这不科学呀

    评论

报告相同问题?

问题事件

  • 已结题 (查看结题原因) 7月18日
  • 创建了问题 7月16日

悬赏问题

  • ¥20 指导如何跑通以下两个Github代码
  • ¥15 大家知道这个后备文件怎么删吗,为啥这些文件我只看到一份,没有后备呀
  • ¥15 C++为什么这个代码没报错运行不出来啊
  • ¥15 一道ban了很多东西的pyjail题
  • ¥15 关于#r语言#的问题:如何将生成的四幅图排在一起,且对变量的赋值进行更改,让组合的图漂亮、美观@(相关搜索:森林图)
  • ¥15 C++识别堆叠物体异常
  • ¥15 微软硬件驱动认证账号申请
  • ¥15 GPT写作提示指令词
  • ¥20 根据动态演化博弈支付矩阵完成复制动态方程求解和演化相图分析等
  • ¥15 华为超融合部署环境下RedHat虚拟机分区扩容问题