蘑菇仙人 2023-01-15 11:01 采纳率: 96%
浏览 38
已结题

随机森林比xgb性能好

我的样本量2500例,按照7:3划分为训练集和测试集,训练集使用5折交叉验证进行调参建模。结果随机森林比xgb效果好。按照8:2、6:4划分也是同样结果。然而其他人大多数情况下xgb比随机森林好。我的反常结果是什么原因导致的呢?是我样本量太少还是数据集误差多呢?有什么办法让xgb效果更好吗?

  • 写回答

3条回答 默认 最新

  • heart_6662 2023-01-15 11:08
    关注

    望采纳!!!点击回答右侧采纳即可!!可能是样本量太少导致的,因为样本量越少,模型的泛化能力越差,容易出现过拟合现象。另外,数据集的误差也可能是原因之一,因为误差越大,模型的泛化能力也会受到影响。
    要让XGB效果更好,可以尝试增加样本量,以提高模型的泛化能力;另外,可以尝试改进数据集,减少误差,以提高模型的泛化能力。此外,还可以尝试调整XGB的参数,以提高模型的性能。

    本回答被题主选为最佳回答 , 对您是否有帮助呢?
    评论
查看更多回答(2条)

报告相同问题?

问题事件

  • 系统已结题 1月24日
  • 已采纳回答 1月16日
  • 创建了问题 1月15日