训练集的loss一定比测试集的loss小,模型才对么?我的模型只设立了训练集和测试集(8:2),但网络训练出来,一直都是训练集的loss大于测试集的,我看其他人的论文里,基本都是训练集的loss小于测试集的loss,最后趋于稳定,判定模型收敛。
loss tRAIN TEST 0.018 0.016 0.014 0.012 0.010 0.008 - 0.006 - 20 40 60 0 80 100 epocH