m0_61053015 2021-08-20 13:18 采纳率: 0%
浏览 24

数据集的大小划分界限

lstm和gru算法中提到,lstm对于大一点的数据集性能更好,那么这个大一点是指多大

  • 写回答

1条回答 默认 最新

  • 爱晚乏客游 2021-08-20 14:49
    关注

    对于大部分的模型来说,数据集越大代表着精准度越高,对于有效数据来说,100个数据肯定不如1000个来的好,大是一概念,并没有具体量化指标,只能是相对而言,当数据集达不到你所需要的要求的时候,就是你的数据集不够大,反之只要满足你的需求,那就是数据集足够大。

    评论

报告相同问题?

问题事件

  • 创建了问题 8月20日

悬赏问题

  • ¥15 完成下列问题完成下列问题
  • ¥15 C#算法问题, 不知道怎么处理这个数据的转换
  • ¥15 YoloV5 第三方库的版本对照问题
  • ¥15 请完成下列相关问题!
  • ¥15 drone 推送镜像时候 purge: true 推送完毕后没有删除对应的镜像,手动拷贝到服务器执行结果正确在样才能让指令自动执行成功删除对应镜像,如何解决?
  • ¥15 求daily translation(DT)偏差订正方法的代码
  • ¥15 js调用html页面需要隐藏某个按钮
  • ¥15 ads仿真结果在圆图上是怎么读数的
  • ¥20 Cotex M3的调试和程序执行方式是什么样的?
  • ¥20 java项目连接sqlserver时报ssl相关错误