剛剛讀了一下K-Fold Cross-validation ,個人理解如下,當dataset較小時,我們利用K-Fold Cross-Validation將dataset拆分成k份,其中k-1為training set , 剩下一份為validation set,用這樣的方式在小資料集下“驗證model的performance”較有參考價值
我產生了以下疑問,當我們把所有dataset都用作訓練以及驗證model performance,那我們該用什麼東西作為調超參數的依據,我在想我可能是有些地方理解有誤了
K-Fold Cross-validation 疑問
- 写回答
- 好问题 0 提建议
- 追加酬金
- 关注问题
- 邀请回答
-
1条回答 默认 最新
悬赏问题
- ¥50 Kubernetes&Fission&Eleasticsearch
- ¥15 有没有帮写代码做实验仿真的
- ¥15 報錯:Person is not mapped,如何解決?
- ¥30 vmware exsi重置后登不上
- ¥15 易盾点选的cb参数怎么解啊
- ¥15 MATLAB运行显示错误,如何解决?
- ¥15 c++头文件不能识别CDialog
- ¥15 Excel发现不可读取的内容
- ¥15 关于#stm32#的问题:CANOpen的PDO同步传输问题
- ¥20 yolov5自定义Prune报错,如何解决?