训练集的loss一定比测试集的loss小,模型才对么?我的模型只设立了训练集和测试集(8:2),但网络训练出来,一直都是训练集的loss大于测试集的,我看其他人的论文里,基本都是训练集的loss小于测试集的loss,最后趋于稳定,判定模型收敛。

训练集的loss一定比测试集的loss小,模型才对么?我的模型只设立了训练集和测试集(8:2),但网络训练出来,一直都是训练集的loss大于测试集的,我看其他人的论文里,基本都是训练集的loss小于测试集的loss,最后趋于稳定,判定模型收敛。

谁跟你说训练集一定小于测试集?这两个大小没有一定关系,真要细分的话训练集和验证集都不能算同一个数据集,没有绝对的大小之分。即使是两者分布一致,但是具体样本的偏差也会会导致结果的不一样(特别是训练集如果做了数据增强,而验证集没有),所以我们能简单粗暴的直接比较两者大小,而是看趋势是否同步下降,
想你这个训练集和验证集loss都在下降,这就是很正常的训练过程,
但是训练集loss下降了,而验证集loss反而上升了,这就是熟知的过拟合。
准确率一样的道理