Bsmzdmz_ 2022-02-25 11:01
浏览 63
已结题

利用stacking融合模型后,为何模型性能没有明显提升

我尝试用stacking对xgboost,lightgbm和随机森林进行融合,数据集大概1万多条记录,但融合后的模型的f1值几乎均与lightgbm的即单个模型最高的f1值相同,或者稍有下降,而且融合模型的auc值对比单个的来说也降低了。
我尝试过调参,把多个不同参数的相似模型放入stacking的基学习器中,均没有得到改善,请问应该如何做?

  • 写回答

1条回答 默认 最新

    报告相同问题?

    相关推荐 更多相似问题

    问题事件

    • 系统已结题 3月5日
    • 修改了问题 2月26日
    • 创建了问题 2月25日

    悬赏问题

    • ¥15 关于C# 英文打字练习器程序设计
    • ¥15 想用switch完成这个操作,但试了很多遍都无法运行
    • ¥15 wfp应用层设计规则如何能传递到内核层
    • ¥15 关于机器学习创新点几个问题
    • ¥15 python程序编写
    • ¥15 Type-C扩展坞的RTL8153地址硬改
    • ¥15 uniapp websocket 发送 sub 监听后,代码自动发送了 unsub ,解除了监听
    • ¥15 nativefier封装electron的应用遇到alert弹窗后input栏获取不到焦点,confirm不弹出的问题。
    • ¥15 Simulink使用HDL coder生成verilog代码时遇到问题
    • ¥20 怎样让两台不同的电脑访问外网的IP一致?