一个二分类的神经网络,输出层用sigmoid,隐藏层使用reLU得到的代价cost比使用tanh得到的cost小(),但是reLU的准确率为0.5(数据集和测试集都是0.5左右),tanh的准确率为0.85(数据集为0.9左右,测试集为0.85左右)。cost是计算的交叉熵损失。
出现这种情况(cost更小但准确率低)可能的原因是什么呢?
一个二分类的神经网络,输出层用sigmoid,隐藏层使用reLU得到的代价cost比使用tanh得到的cost小(),但是reLU的准确率为0.5(数据集和测试集都是0.5左右),tanh的准确率为0.85(数据集为0.9左右,测试集为0.85左右)。cost是计算的交叉熵损失。
出现这种情况(cost更小但准确率低)可能的原因是什么呢?